Szingapúri és finn vállalatok azon versenyeznek éppen, hogy mielőbb kifejlesszenek egy olyan mesterséges intelligencián alapuló technológiát, amely segítségével a szoftverek még azelőtt automatikusan észlelhetik és blokkolhatják az erőszakos tartalmú videókat, mielőtt azok elterjedhetnének a közösségi médiában.
A közelmúltban több ilyen eset is történt, melyek aggasztó kérdéseket vetnek fel például a Facebook jelentési rendszerének működéséről és arról, hogy vajon ezek az erőszakos tartalmak gyorsabban felismerhetők-e. Az iparágban dolgozók szerint több mint egy tucat vállalatnak kell sürgősen megbirkóznia a problémával. A Google – amely hasonló problémákkal szembesül a YouTube videómegosztó portál kapcsán és ezért a hirdetők folyamatosan elfordulnak tőle – és a Facebook jelenleg saját megoldásokon dolgozik.
A tanítási rendszer a számítógép neurális rétegei által táplált képekkel kezdődik, amelyek aztán „megtanulják”, hogy azonosítsanak egy utcajelet, beszédet/szavakat, vagy egy erőszakos jelenetet a videóban.
„A számítógépek tanítása a mesterséges idegsejtek mély rétegeinek megértésére valójában csak az elmúlt években kezdődött el igazán. Továbbá csak nemrég óta áll rendelkezésünkre olyan szintű számítógépes teljesítmény és elegendő adatmennyiség, amelyek lehetővé teszik a gépi tanulás exponenciális növekedését a pontosság és a hatékonyság terén” – mondta Matt Zeiler, a New York-i székhelyű Clarifai, egy másik videóelemző cég vezérigazgatója.
Zeiler szerint a Clarifai algoritmusai olyan objektumokat is felismerhetnek egy videón, amelyek az erőszak előzményei lehetnek – például egy kést vagy pisztolyt.
„Az erőszakos cselekmények lehetnek például hackertámadások vagy éppen egy verekedés is” – mondja Abhijit Shanbhag, a szingapúri Graymatics vezérigazgatója. Ha a cég mérnökei nem találnak megfelelő jelenetet az interneten, maguk filmeznek az irodában. Fotó: Reuters
Azért persze vannak korlátok
Az egyik, hogy a szoftver csak annyira jó, mint az általa már feldolgozott példák. Tehát ha olyan cselekmény történik egy videóban, amit a program még soha nem látott, nem is tudja azonosítani mint veszélyes elemet.
„Ahogy az emberek innovatívabbá válnak az ilyen szörnyű tevékenységekkel kapcsolatban, a rendszert is hozzá kell képezni” – mondta Shanbhag.
Egy másik korlátozás az, hogy az erőszak szubjektív lehet. Junle Wang, a franciaországi PicPurify kutatási és fejlesztési vezetője szerint egy gyorsan mozgó jelenet, melyben nyilvánvaló, hogy mi történik, elég könnyű észrevenni. Ám a vállalat jelenleg olyan erőszakos jelenetek azonosításán dolgozik, amelyekben nincs vér vagy fegyverek. A pszichológiai kínzást például rendkívül nehéz kiszűrni.
Ezen kívül vannak olyan tartalmak is, amelyek sértőnek tekinthetőek, anélkül, hogy valójában erőszakosak lennének – például egy ISIS zászló – mondta Shanbhag. Ez egy személyre (ügyfélre) szabott rendszert kívánhat.
- Még mindig szükség van az emberekre
Néhány vállalat szerint az iparági elfogadás – részben a költségek miatt – lassabban ment, mint várták. Most úgy néz ki, ez változik, mivel a felhasználók által generált tartalmakat kezelő vállalatok egyre inkább szabályozási nyomás alá kerülhetnek, továbbá nem hagyhatják, hogy az emberek elveszítsék a beléjük vetett bizalmukat.
- Kapcsolódó cikkeink:
Forrás: Reuters / Kitekintő