OpenAI nám pomôže identifikovať deepfakes a obrázky vygenerované cez AI

Generatívne AI modely už dokážu vytvoriť desivo realistické obrázky, audio alebo videá a prispieť tým k šíreniu dezinformácií.

robot kresli umela inteligencia_titulka
Zdroj: ezumeimages a Jud_g / depositphotos.com, úprava redakcia

Generatívna AI technológia si už našla vo svete pevné miesto a každým ďalším rokom sa jej schopnosti budú ešte viac zlepšovať. Už dnes však máme niekedy problém rozlíšiť, čo vytvorila umelá inteligencia a čo je reálna fotka, video alebo zvuk.  

Umelá inteligencia nám môže pomôcť vytvoriť naozaj úžasné veci, no rovnako môže prispieť k šíreniu dezinformácií alebo podvodov. Nie raz sa stalo, že umelá inteligencia vygenerovala desivo realistický záber zachytávajúci nejakú nehodu, požiar alebo inú katastrofu. Umelo vytvorené hlasy známych ľudí sa dnes častejšie používajú na oklamanie obetí.  

Odoberajte Vosveteit.sk cez Telegram a prihláste sa k odberu správ

Spoločnosť OpenAI, líder vo vývoji umelej inteligencie, si rovnako uvedomuje, že s AI obsahom sa v budúcnosti budeme stretávať oveľa častejšie ako dnes. Preto potrebujeme spoľahlivé nástroje, ktoré by nám ukázali, čo vzniklo umelo a čo vytvoril alebo zachytil človek.  

“Svet potrebuje podobné metódy zdieľania informácie o tom, ako bol digitálny obsah vytvorený. Štandardy nám pomáhajú rozpoznať dielo umelej inteligencie a poskytnú nám aj ďalšie informácie o obsahu. Tieto štandardy nám dovolia okamžite vedieť, či je obrázok neupraveným výstupom z fotoaparátu alebo ide o umelecký výtvor cez nástroje, ako napríklad DALL-E 3,” píše OpenAI. 

Spoločnosť sa pridáva do koalície C2PA (Coalition for Content Provenance and Authenticity). Ide o štandard pre digitálny obsah, ktorý sa dnes používa po celom svete. C2PA vzniká spoluprácou expertov a spoločností z rôznych odborov, od online platforiem až po výrobcov fotoaparátov a kamier.  

V boji proti dezinformáciám treba viac

OpenAI začala ešte tento rok pridávať C2PA metadáta do všetkých obrázkov, ktoré vznikli a boli upravené AI modelom DALL-E 3. Rovnaké metadáta vložia aj do videí, generovaných pokročilým modelom Sora.  

AI líder vysvetľuje, že tieto metadáta nezabránia ľuďom v šírení falošného obsahu. Dezinformačné obrázky môžu stále existovať bez týchto metadát a znalejší podvodníci môžu metadáta z obrázku odstrániť. OpenAI ale vysvetľuje, že tieto dáta sa nebude dať zmazať jednoducho, preto ide o dôležitý nástroj na vybudovanie dôvery.  

“Veríme, že postupom času sa ľudia naučia tieto metadáta očakávať,” tvrdí OpenAI.  

OpenAI sa zároveň spája aj s Microsoftom a vytvára zbierku vo výške dvoch miliónov dolárov, ktorá pomôže prehĺbiť vzdelanie ohľadom umelej inteligencie. Popri tom všetkom spoločnosť implementuje do AI výtvorov aj neviditeľný vodoznak. Pôjde o špecifický druh signálu, ktorý môžu špecializované nástroje zachytiť a okamžite rozpoznajú, že audio alebo obraz vytvorila umelá inteligencia. Tento signál sa taktiež nebude dať ľahko odstrániť.  

Metódy na odhalenie AI obsahu predstavujú správny krok vpred v boji proti dezinformáciám, no samé o sebe nezmenia nič. OpenAI vysvetľuje, že aj samotné platformy s obsahom a tvorcovia sa musia vydať cestou transparentnosti, aby sa situácia nejak výrazne zmenila.  

Prihláste sa k odberu správ z Vosveteit.sk cez Google správy

Komentáre