Itt jelentheti, ha valaki az ön lejáratására használ a YouTube-on MI-t

Idáig legfeljebb bosszankodhatott valaki, ha egy olyan videóra bukkant a YouTube-on, amely az arcát vagy a hangját szimulálta, természetesen mesterséges intelligencia bevetésével. Az „észrevételezés” eddig ugyanis a YouTube munkatársaira, esetleg speciális algoritmusokra hárult. Mostantól viszont lehetőség kínálkozik arra, hogy bárki jelentse a saját magát érintő hamisításokat.

A YouTube a napokban bejelentette, hogy bővíti adatvédelmi kérelmeinek folyamatát, és lehetővé teszi a felhasználók számára, hogy kérhessék az arcukat vagy a hangjukat felhasználó, a mesterséges intelligencia által generált, illetve egyéb szintetikus vagy módosított tartalmak eltávolítását a legnagyobb videómegosztóról.

A YouTube magyarázata szerint a mesterséges intelligencia által generált tartalom felelősségteljesebb megközelítése melletti döntés azzal függ össze, hogy az utóbbi időben egyre gyakoribbá váltak a mesterséges intelligencia ilyesfajta mélyhamisításai. Más szavakkal ez úgy is mondható: annyi negatív visszajelzést kaptak, hogy most kénytelenek változtatásokat végrehajtani.

Azoknak, akik a mesterséges intelligencia bármilyen, őket érintő mélyhamisítványainak az eltávolítását szeretnék kérni, a YouTube adatvédelmi kérési folyamatát kell használniuk. A szolgáltatás ezután értékeli a kérelmet, és „számos tényezőt” figyelembe vesz az eltávolítás előtt, például hogy a tartalom módosított vagy szintetikus-e, illetve tényleg összetéveszthető-e a valódi személlyel. A YouTube azt is ellenőrzi fogja, hogy azonosítható-e a kérelmet benyújtó személy.

Van viszont egy érdekes kitétel is: a YouTube azt is vizsgálja, hogy a jelentett, ismert személyeket érintő esetben a tartalom szatíra vagy paródia-e. Úgy tűnik, hogy a YouTube nem nagyon akarja eltávolítani az ilyen tartalmakat. A YouTube arra is felhívta a figyelmet, hogy a sérelmezett tartalom alkotói nem kapnak figyelmeztetést, mivel az adatvédelem megsértésének esetei elkülönülnek a közösségi irányelvekkel kapcsolatos figyelmeztetésektől.

Ha máskor is tudni szeretne hasonló dolgokról, lájkolja a HVG Tech rovatának Facebook-oldalát.

HVG