OpenAI odhaľuje používanie AI ruskými a izraelskými skupinami na dezinformačné kampane. Výskumné laboratórium, ktoré vyvinulo ChatGPT, vydalo prvú správu o použití nástrojov umelej inteligencie na operácie s utajeným vplyvom, pričom odhalilo, že v posledných mesiacoch narušilo dezinformačné kampane z Ruska, Číny, Izraela a Iránu.

OpenAI odhaľuje používanie AI ruskými a izraelskými skupinami na dezinformácie

Správa v ktorej popredná spoločnosť zaoberajúca sa vývojom umelej inteligencie podrobne analyzuje používanie svojho softvéru na manipuláciu s informáciami online: OpenAI odhaľuje, že za posledné tri mesiace americké výskumné laboratórium, ktoré spustilo ChatGPT, rozpoznalo a narušilo dezinformačné kampane z Ruska, Číny, Izraela a Iránu.

OpenAI odhaľuje používanie AI ruskými a izraelskými skupinami na dezinformácie

Päť operácií utajeného vplyvu, v ktorých sa generatívne modely umelej inteligencie amerického giganta použili na generovanie krátkych komentárov a dlhších článkov v rôznych jazykoch , vytváranie mien a biografií pre účty sociálnych médií a ich použitie ako ozvučenie, vykonávanie výskumu s otvoreným zdrojom a prekladať a korigovať texty.

Podobné stratégie na šírenie falošných správ o širokej škále tém : ruská invázia na Ukrajinu, konflikt v Gaze, prebiehajúce voľby v Indii, politika v Európe a Spojených štátoch a kritika čínskej vlády zo strany čínskych disidentov a zahraničných vlád.

Dve z piatich kampaní odhalených OpenAI boli z Ruska . Prvá – nazvaná Bad Grammar – fungovala predovšetkým na telegrame a zameriavala sa na Ukrajinu, Moldavsko, pobaltské krajiny a Spojené štáty. Bad Grammar použil šablóny OpenAI na odladenie kódu na spustenie telegramového bota a na vytvorenie krátkych politických komentárov v ruštine a angličtine, ktoré sa potom šírili na niekoľkých kanáloch telegramu.

V druhom, Doppelganger, bola umelá inteligencia použitá na preklad a úpravu článkov v angličtine a francúzštine, ktoré boli publikované na webových stránkach súvisiacich s touto operáciou, na generovanie titulkov a konverziu novinových článkov na príspevky na Facebooku a generovanie komentárov v angličtine, francúzštine, nemčine, taliančine a poľština na vytvorenie fiktívnej interakcie so správami.

Rovnaký vzor nasledovala čínska sieť známa ako Spamouflage a iránska organizácia International Union of Virtual Media . Vyšetrovanie OpenAI tiež odhalilo nezákonnú činnosť izraelskej komerčnej spoločnosti s názvom STOIC, ktorá využívala modely umelej inteligencie na generovanie článkov a komentárov, ktoré boli následne publikované na rôznych platformách, najmä na Instagrame, Facebooku, X a webových stránkach spojených s touto operáciou.

Správa poukazuje na to, že vo všetkých týchto prípadoch je umelá inteligencia začlenená do dezinformačných kampaní na zlepšenie niektorých aspektov tvorby obsahu, ako je vytváranie pútavejších cudzojazyčných príspevkov, no nie je to jediný nástroj propagandy.

„Všetky tieto operácie do určitej miery využívali umelú inteligenciu, ale žiadna ju nepoužívala výlučne,“ hovorí OpenAI.

Materiál vytvorený umelou inteligenciou išiel ruka v ruke s „tradičnejšími formátmi, ako sú ručne písané texty alebo mémy skopírované z internetu. “

Prieskum uskutočnený spoločnosťou OpenAI je ďalším budíčkom pre EÚ, ktorá je hlboko znepokojená propagandou tretích strán o volebnom procese. Od januára zaznamenalo Observatórium EÚ pre digitálne médiá (EDMO) rastúci trend dezinformácií v súvislosti s politikami alebo inštitúciami EEU .

V apríli to podľa EdDMO predstavovalo 11 percent celkových zistených dezinformácií, čo je „najvyššia hodnota pre dezinformácie súvisiace s EÚ od začiatku nášho špecializovaného monitorovania v máji 2023“.

OpenAI objasňuje, že tieto masívne dezinformačné operácie „ nezdá sa, že by ťažili z výrazného zvýšenia zapojenia publika alebo dosahu v dôsledku našich služieb. “

Je však jasné, že generatívna umelá inteligencia je nástroj schopný výrazne zvýšiť kvalitu online dezinformácií.