Čínska elita je v otázke umelej inteligencie rozdelená. V júli 2023 Henry Kissinger cestoval do Pekingu naposledy pred svojou smrťou. Medzi správami, ktoré odovzdal čínskemu vládcovi Si Ťin-pchingovi, bolo aj varovanie pred katastrofálnymi rizikami umelej inteligencie (AI). Odvtedy sa americkí technologickí šéfovia a bývalí vládni úradníci potichu stretli so svojimi čínskymi náprotivkami na sérii neformálnych stretnutí nazývaných Kissinger Dialogues.

Čínska elita a otázka umelej inteligencie, Čína je rozdelená

Najprv by sme, ale chceli vidieť čínske fotky z odvrátnej strany Mesiaca 🙂

Rozhovory sa čiastočne zamerali na to, ako chrániť svet pred nebezpečenstvami AI. Očakáva sa, že americkí a čínski predstavitelia sa 27. augusta chopia tejto témy (spolu s mnohými ďalšími), keď americký poradca pre národnú bezpečnosť Jake Sullivan pocestuje do Pekingu.

Mnohí v technologickom svete si myslia, že AI sa vyrovná alebo prekoná kognitívne schopnosti ľudí. Niektorí vývojári predpovedajú, že modely umelej všeobecnej inteligencie (AGI) sa jedného dňa budú môcť učiť, čo by ich mohlo urobiť nekontrolovateľnými. Tí, ktorí veria, že umelá inteligencia bez kontroly predstavuje pre ľudstvo existenčné riziko, sa nazývajú „doomeri“. Majú tendenciu obhajovať prísnejšie predpisy. Na druhej strane sú „akceleracionisti“, ktorí zdôrazňujú potenciál AI v prospech ľudstva.

Západní akceleracionisti často argumentujú, že konkurencia s čínskymi vývojármi, ktorých nebrzdí silné ochranné opatrenia, je taká ostrá, že Západ si nemôže dovoliť spomaliť. Z toho vyplýva, že diskusia v Číne je jednostranná, pričom o regulačnom prostredí majú najväčšie slovo akcelerátori. V skutočnosti má Čína svojich vlastných doomerov AI – a tí sú čoraz vplyvnejší.

Až donedávna sa čínske regulačné orgány zameriavali na riziko nečestných chatbotov, ktorí hovoria politicky nekorektné veci o komunistickej strane, a nie na riziko, že sa špičkové modely vymknú ľudskej kontrole. V roku 2023 vláda požadovala od vývojárov, aby zaregistrovali svoje veľké jazykové modely. Algoritmy sú pravidelne označované, nakoľko sú v súlade so socialistickými hodnotami a či môžu „podvracať štátnu moc“.

Pravidlá majú tiež zabrániť diskriminácii a úniku údajov o zákazníkoch. Vo všeobecnosti sú však bezpečnostné predpisy AI ľahké. Niektoré z prísnejších obmedzení Číny boli minulý rok zrušené.

Čínski akcelerátori chcú veci takto zachovať. Zhu Songchun, stranícky poradca a riaditeľ štátom podporovaného programu na vývoj AGI , tvrdil, že vývoj AI je rovnako dôležitý ako projekt „Dve bomby, jeden satelit“, čo je snaha o výrobu jadrových zbraní dlhého doletu z čias Mao.

Začiatkom tohto roka 2024 Yin Hejun, minister vedy a techniky, použil starý stranícky slogan na presadzovanie rýchlejšieho pokroku a napísal, že rozvoj, a to aj v oblasti AI, je najväčším zdrojom bezpečnosti Číny. Niektorí tvorcovia hospodárskej politiky varujú, že príliš horlivé úsilie o bezpečnosť poškodí konkurencieschopnosť Číny.

Ale akceleracionisti dostávajú odpor od kliky elitných vedcov s uchom komunistickej strany. Najvýznamnejším z nich je Andrew Chi-Chih Yao, jediný Číňan, ktorý získal Turingovu cenu za pokrok v oblasti informatiky. V júli Yao povedal, že AI predstavuje pre ľudí väčšie existenčné riziko ako jadrové alebo biologické zbrane.

Zhang Ya-Qin, bývalý prezident Baidu, čínskeho technologického giganta a Xue Lan, predseda štátnej expertnej komisie pre riadenie AI , tiež počítajú s tým, že AI môže ohroziť ľudskú rasu. Yi Zeng z Čínskej akadémie vied verí, že modely AGI nakoniec uvidia ľudí tak, ako ľudia vidia mravce.

Vplyv takýchto argumentov sa čoraz viac prejavuje. V marci medzinárodná skupina odborníkov, ktorá sa stretla v Pekingu, vyzvala výskumníkov, aby zabili modely, ktoré zdanlivo hľadajú moc alebo vykazujú známky sebareplikácie či klamstva. Krátko nato sa riziká, ktoré predstavuje AI , a ako ich kontrolovať, stali predmetom študijných stretnutí pre vodcov strán.

Štátny orgán, ktorý financuje vedecký výskum, začal ponúkať granty výskumníkom, ktorí študujú, ako zosúladiť AI s ľudskými hodnotami. Štátne laboratóriá vykonávajú v tejto oblasti čoraz pokročilejšiu prácu. Súkromné ​​firmy boli menej aktívne, ale viac z nich aspoň začalo hovoriť o rizikách AI.

Rozhodnutie nakoniec závisí od toho, čo si myslí pán Xi. V júni poslal list pánovi Yaovi, v ktorom chválil jeho prácu na AI . V júli na stretnutí ústredného výboru strany s názvom „tretie plénum“ vyslal pán Xi svoj zatiaľ najjasnejší signál, že berie obavy doomerov vážne. Oficiálna správa z pléna uvádza riziká AI spolu s ďalšími veľkými problémami, ako sú biologické nebezpečenstvá a prírodné katastrofy. Prvýkrát vyzval na monitorovanie bezpečnosti AI, čo je odkaz na potenciál technológie ohroziť ľudí. Správa môže viesť k novým obmedzeniam výskumných aktivít AI.

Viac indícií k mysleniu pána Si Ťin-pchinga pochádza zo študijnej príručky pripravenej pre stranícke kádre, ktorú vraj osobne upravoval. Čína by mala „upustiť od neobmedzeného rastu, ktorý prichádza za cenu obetovania bezpečnosti“, hovorí sprievodca. Keďže AI bude určovať „osud celého ľudstva“, musí byť vždy ovládateľná, pokračuje. Dokument požaduje, aby regulácia bola skôr preventívna ako reaktívna.

Bezpečnostní guru hovoria, že dôležité je, ako sa tieto pokyny implementujú. Čína pravdepodobne vytvorí inštitút pre bezpečnosť AI , ktorý bude sledovať špičkový výskum, ako to urobili Amerika a Británia, hovorí Matt Sheehan z Carnegie Endowment for International Peace, think-tanku vo Washingtone. Ktoré oddelenie by zastrešovalo takýto inštitút, je otvorenou otázkou. Čínski predstavitelia zatiaľ zdôrazňujú potrebu zdieľať zodpovednosť za reguláciu AI a zlepšiť koordináciu.

Aby to Čína mohla urobiť, bude musieť užšie spolupracovať s ostatnými. Ale Amerika a jej priatelia túto otázku stále zvažujú. Debata medzi doomermi a akcelerátormi v Číne a inde ani zďaleka neskončila.