Mesterséges intelligenciával az erőszakos tartalmak ellen


A rovat támogatója az XTB

Szingapúri és finn vállalatok azon versenyeznek éppen, hogy mielőbb kifejlesszenek egy olyan mesterséges intelligencián alapuló technológiát, amely segítségével a szoftverek még azelőtt automatikusan észlelhetik és blokkolhatják az erőszakos tartalmú videókat, mielőtt azok elterjedhetnének a közösségi médiában.

A közelmúltban több ilyen eset is történt, melyek aggasztó kérdéseket vetnek fel például a Facebook jelentési rendszerének működéséről és arról, hogy vajon ezek az erőszakos tartalmak gyorsabban felismerhetők-e. Az iparágban dolgozók szerint több mint egy tucat vállalatnak kell sürgősen megbirkóznia a problémával. A Google – amely hasonló problémákkal szembesül a YouTube videómegosztó portál kapcsán és ezért a hirdetők folyamatosan elfordulnak tőle – és a Facebook jelenleg saját megoldásokon dolgozik.

A legtöbb fejlesztés a mély tanulásra összpontosít: ez a mesterséges intelligencia egyik fajtája, amely a számítógépes neurális hálózatok alkalmazásán alapul. Ez egy olyan megközelítés, amelyet David Lissmyr, a párizsi székhelyű Sightengine kép- és videóelemző cég alapítója elmondása szerint az 1950-es években kezdtek kifejleszteni, és amely megpróbálja utánozni az emberi agyban lévő idegsejtek működését és kölcsönhatását.

A tanítási rendszer a számítógép neurális rétegei által táplált képekkel kezdődik, amelyek aztán „megtanulják”, hogy azonosítsanak egy utcajelet, beszédet/szavakat, vagy egy erőszakos jelenetet a videóban.

„A számítógépek tanítása a mesterséges idegsejtek mély rétegeinek megértésére valójában csak az elmúlt években kezdődött el igazán. Továbbá csak nemrég óta áll rendelkezésünkre olyan szintű számítógépes teljesítmény és elegendő adatmennyiség, amelyek lehetővé teszik a gépi tanulás exponenciális növekedését a pontosság és a hatékonyság terén” – mondta Matt Zeiler, a New York-i székhelyű Clarifai, egy másik videóelemző cég vezérigazgatója.

Zeiler szerint a Clarifai algoritmusai olyan objektumokat is felismerhetnek egy videón, amelyek az erőszak előzményei lehetnek – például egy kést vagy pisztolyt.

„Az erőszakos cselekmények lehetnek például hackertámadások vagy éppen egy verekedés is” - mondja Abhijit Shanbhag, a szingapúri Graymatics vezérigazgatója. Ha a cég mérnökei nem találnak megfelelő jelenetet az interneten, maguk filmeznek az irodában.

„Az erőszakos cselekmények lehetnek például hackertámadások vagy éppen egy verekedés is” – mondja Abhijit Shanbhag, a szingapúri Graymatics vezérigazgatója. Ha a cég mérnökei nem találnak megfelelő jelenetet az interneten, maguk filmeznek az irodában. Fotó: Reuters

Azért persze vannak korlátok

Az egyik, hogy a szoftver csak annyira jó, mint az általa már feldolgozott példák. Tehát ha olyan cselekmény történik egy videóban, amit a program még soha nem látott, nem is tudja azonosítani mint veszélyes elemet.

„Ahogy az emberek innovatívabbá válnak az ilyen szörnyű tevékenységekkel kapcsolatban, a rendszert is hozzá kell képezni” – mondta Shanbhag.

Egy másik korlátozás az, hogy az erőszak szubjektív lehet. Junle Wang, a franciaországi PicPurify kutatási és fejlesztési vezetője szerint egy gyorsan mozgó jelenet, melyben nyilvánvaló, hogy mi történik, elég könnyű észrevenni. Ám a vállalat jelenleg olyan erőszakos jelenetek azonosításán dolgozik, amelyekben nincs vér vagy fegyverek. A pszichológiai kínzást például rendkívül nehéz kiszűrni.

Ezen kívül vannak olyan tartalmak is, amelyek sértőnek tekinthetőek, anélkül, hogy valójában erőszakosak lennének – például egy ISIS zászló – mondta Shanbhag. Ez egy személyre (ügyfélre) szabott rendszert kívánhat.

  • Még mindig szükség van az emberekre
Tovább bonyolítja a dolgokat, hogy míg az automatizálás segíthet, az embereket még mindig be kell vonni, hogy „manuálisan” ellenőrizzék a sértőnek vagy veszélyesnek ítélt tartalom hitelességét.

Néhány vállalat szerint az iparági elfogadás – részben a költségek miatt – lassabban ment, mint várták. Most úgy néz ki, ez változik, mivel a felhasználók által generált tartalmakat kezelő vállalatok egyre inkább szabályozási nyomás alá kerülhetnek, továbbá nem hagyhatják, hogy az emberek elveszítsék a beléjük vetett bizalmukat.

  • Kapcsolódó cikkeink:

Forrás: Reuters / Kitekintő

Felkapott hírek

Friss hírek

Snoop Dogg + Puma + Roland = sportcipő

Múlt héten lett 40 éves az elektronikus zene, ezen belül is főképp a rave és a techno - egyik első meghatározó eszköze, a Roland TR-808-as.  Ennek tiszteletére dobott piacra a Puma egy sportcipót, amelynek népszerűsítésében Snoop Dogg is feltűnt...  

Read More »

Török minta alapján semlegesítik a hongkongi médiát

Őrizetbe vették Jimmy Lai hongkongi médiamogult hétfőn a Hongkongban júniusban bevezetett nemzetbiztonsági törvény alapján. A hongkongi - pontosabban immár inkább tisztán kínai - hatóságok tevékenysége kísértetiesen hasonlít ahhoz, amit pár évvel ezelőtt Törökországban láthattunk. Ott is az ellenzéki hangok elnémításával indult a független média elleni hadjárat.

Read More »

Erdogan célba vette a közösségi médiát

Törökország elnöke már elcsendesítette a független médiát, a kormánykritikus újságírókat etávolította vagy éppen börtönbe záratta, az ország vezető  hírcsatornáit és újságait  - akárcsak a jegybankot és a pénzügyminisztériumot - pedig már baráti kezek irányítják. Most a közösségi oldalak megregulázása következik. 

Read More »

A honlap további használatához kérjük fogadja el a sütik használatát. További információt adatvédelmi tájékoztatónkban és a sütik kezelésére vonatkozó tájékoztatónkban talál.

A süti beállítások ennél a honlapnál engedélyezett a legjobb felhasználói élmény érdekében. Amennyiben a beállítás változtatása nélkül kerül sor a honlap használatára, vagy az "Elfogadás" gombra történik kattintás, azzal a felhasználó elfogadja a sütik használatát.

Bezárás