Zdá sa, že máte zablokovanú reklamu

Fungujeme však vďaka príjmom z reklamy a predplatného. Podporte nás povolením reklamy alebo kúpou predplatného.

Ďakujeme, že pozeráte .pod lampou. Chceli by ste na ňu prispieť?

Expert Igor Farkaš: Umelá inteligencia nevie, čo je realita

.marian Jaslovský .rozhovory .rozhovor

Ak vie niekto o umelej inteligencii naozaj veľa, je to Igor Farkaš, vedúci Katedry aplikovanej informatiky na Fakulte matematiky, fyziky a informatiky UK v Bratislave.

Expert Igor Farkaš: Umelá inteligencia nevie, čo je realita MARIAN JASLOVSKÝ

nechcem „spoilovať“, ale asi môžem prezradiť, že som ako fanúšik sci-fi neprestal mať po tomto rozhovore ilúzie. Ale nenahradili ich ani obavy o osud ľudstva z kategórie katastrofických fantázií. Umelá inteligencia (ďalej aj UI) je skrátka ďalšou z radu technológií, s ktorými sa naučíme žiť a ktoré nám budú pomáhať aj škodiť, ale tak je to od vynálezu pästného klinu.  

čo je umelá inteligencia a kedy sme o nej začali hovoriť?

Pojem vznikol niekedy v polovici minulého storočia, krátko na to, ako vznikli prvé digitálne počítače. Umelá preto, lebo je naviazaná na artefakt vytvorený človekom. No a inteligencia – na to je viacero pohľadov. Ale úplne postačí konštatovanie, že keď bude správanie tohto systému považovať človek za inteligentné, je inteligentné.

tento rok sa veľa písalo o dvoch typoch umelej inteligencie – DALL-E (tiež aj Midjourney a Stable Diffusion), ktorý na základe slovného príkazu maľuje obrazy, často pekné a zaujímavé, až sa niekedy hovorí aj o kreativite UI. Druhou je ChatGPT, ktorý reaguje v dialógu zmysluplne, ale často vyslovuje aj nepravdivé konštatovania, čo my nazývame klamstvom. To je však zrejme nepatričná antropomorfizácia, poľudšťovanie veci, ktorá z princípu ľudská nie je. Priblížite nám, čo sa deje „za oponou“?

ChatGPT pracuje so slovami, ktoré sú symbolmi. Keď poznám význam slov, viem, o čom veta je a viem zoradiť slová, aby dávali zmysel. V prípade ChatGPT môžeme skonštatovať, že vety zmysel majú v drvivom počte prípadov. 

vie však rozumieť vetám v zmysle, ako im rozumieme my?

Myslím, že systém nedisponuje porozumením v kognitívnom slova zmysle. 

čím teda disponuje?

Presvedčivá schopnosť pramení z obrovského množstva dát, ktoré má k dispozícii. Bolo to natrénované na textoch v rozsahu vysoko prekračujúcom schopnosti bežného človeka. Jazykový model vie, ako slová vo vetách nasledujú za sebou v štatistickom zmysle slova. Je to však uzavretý, samoreferenčný model, ktorý na to, aby pochopil nejaké slovo, musí sa obracať na iné slová, ale nikdy nemôže vzniknúť porozumenie, lebo to nie je ukotvené vo svete. To je, akoby som sa chcel učiť čínštinu, zobral si výkladový slovník a naučil sa ho naspamäť a vedel len to, že toto slovo súvisí s týmto slovom, bez kontaktu s realitou. Ale človek potrebuje ukotviť slovo ako pojem v tomto svete. Sú už snahy, ako to urobiť aj v prípade UI. Napríklad prepojením viet s obrázkami, ktoré opisujú. To je len prvý krok k tomu, aby si systém priradil k slovám významy, ktoré majú v okolitom svete. Napríklad spomenutá umelá inteligencia DALL-E a ďalšie, ktoré tvoria obrázky, sú natrénované v tomto smere dosť dobre. 

midjourney alebo DALL-E vie vygenerovať pôsobivé obrazy a potom úplne bez problémov „namaľuje“ na realistickom obrázku na ruke šesť prstov.

Umelá inteligencia nevie, čo je realita. Ja som napríklad ChatGPT testoval na detskom chytáku: V autobuse cestuje päť ľudí. Na najbližšej zastávke vystúpia siedmi. Koľko ich musí nastúpiť, aby v autobuse nezostal nikto? Každé dieťa sa pozastaví a povie, že to je nezmysel. UI nie, už si nepamätám odpoveď, ale nedávala zmysel. Ono to nepochopilo, že tento príklad je sémanticky nezmyselný a nedá sa naň odpovedať. Na druhej strane ma prekvapila konzistencia niektorých odpovedí. Napríklad keď som sa pýtal, koľkokrát by som sa musel zväčšiť, aby som mohol objať slnko. Chat mi vysvetlil, že to nie je z princípu možné a vymenoval relevantné dôvody.

teraz sa smejeme, ako sa ChatGPT často „mýli“ a aké „hlúposti“ si vymýšľa. Bude časom úspešnejší?

Jeho tvorcovia ho nedali k dispozícii pre verejnosť len tak. Tie milióny ľudí, čo sa s ChatGPT-om hrajú, sú jeho beta testeri. Áno, bude sa zlepšovať. Stále je priestor na väčšiu presvedčivosť. 

v porovnaní s týmito pokusmi sú Google Translate a iné prekladateľské nástroje už vyslovene profesionálne a v bežnom živote veľmi dobre použiteľné.

Dnes je strojový preklad naozaj všeobecne použiteľná vec pri jazykoch, pri ktorých máme dostatok dát. Pri strojových prekladoch je totiž oveľa menej možností pri tvorbe prekladu viet, keďže existuje veľa bilingválnych korpusov na trénovanie.

v súvislosti s umelou inteligenciou sa spomínajú neurónové siete. Ako pracujú, aká je ich úloha?

Keď sme spomínali začiatok vzniku umelej inteligencie v polovici minulého storočia, koncept bol taký, že naučíme počítače vidieť, rozprávať a čokoľvek – riešenie sa naprogramuje. Bola to naivná predstava, že riešenie všetkých úloh bude nakódované v nejakom programovacom jazyku. Ukázalo sa, že toto programátorské nadizajnovanie nie je cesta. Dobrým spôsobom bolo naprogramovať iba proces učenia. 

Že budeme dávať systému nejaké príklady ako dieťaťu a budeme ho učiť. Neurónové siete sa učia, majú učiaci algoritmus. Tento model pri spustení nevie nič – ako čerstvo narodené dieťa. Klasické expertné systémy sú naprogramované spôsobom pravidiel „ak toto – tak toto“. V neurónovej sieti nemáme žiadne pevne naprogramované pravidlá. Máme len sieť, ktorá necháva prebiehať aktivitu od vstupu do výstupu cez spojenia, pričom sa využívajú parametre a dosiahne sa riešenie. Môžem meniť znalosti siete drobnými krôčikmi. Napríklad – poviem sieti, že toto nie je bager, ale kvet a ona si trošku upraví svoje váhy, teda parametre, aby zvýšila pravdepodobnosť, že nabudúce odpovie správne, aj keď bagrov a kvetov je veľa druhov, takže to na prvýkrát nepôjde. 

Je ako dieťa, ktoré tiež nevie všetko na prvý raz. Spôsob učenia neurónovej siete nie je len na princípe stále prítomného učiteľa. Aj tu sa dá použiť analógia s dieťaťom, ktoré sa síce učí s učiteľom, ale aj pomocou odmien a trestov – na základe svojich úspechov aj neúspechov. Na to máme analógiu aj v UI, ktorá sa volá učenie posilňovaním. Okrem toho, do umelej inteligencie sa dajú vložiť rôzne mechanizmy, ktoré budú podporovať učenie. Povedzme zvedavosť, čo znamená, že máme napríklad robota, ktorý skúma okolie a novým veciam venuje viac pozornosti. Ako keby ho „zaujímali“ viac. Do systému vieme vložiť systém vnútorných odmien, ktoré pomáhajú pri  dosahovaní cieľov. 

čo to je vlastne neurón v neurónovej sieti?

Jednoduchý uzol. Neuróny v neurónových sieťach nie sú nič fyzické, je to súčasť matematického modelu, ktorý je implementovaný v počítačovom systéme.

podobne pracuje aj ľudský mozog. Len mozog má zrejme tých neurónov viac ako neurónové siete (odhaduje sa rádovo 100 miliárd a 10^15 parametrov, pozn. aut.).

Najväčšie modely sa už k nemu blížia a verím, že skôr či neskôr dosiahneme úroveň komplexnosti ľudského mozgu. Napríklad GPT-3 má asi 175 miliárd parametrov, čo je rádovo 10^11. V tlači už avizovali, že GPT-4 bude 500-krát väčší ako jeho predchodca.

jedno z veľmi praktických a zrozumiteľných použití umelej inteligencie sú autonómne autá. Hovorí sa o tom už dlhšie, ale akoby to viazlo. Je tu problém morálnej dilemy? Lebo určite príde k situácii, keď si bude musieť UI v aute vybrať, kto v kolíznej situácii zomrie.

Nie je to jediný problém. Problém je v tom, že autonómne autá reálne nevidia tak ako človek – nemajú konceptuálne chápanie scény potrebné pre jej presnú analýzu. Samozrejme, že detegujú chodcov, dopravné značky a tak ďalej, ale niekedy nevedia dobre vyhodnotiť situáciu, aj keď počet problémových prípadov bol doteraz veľmi malý. Navyše je na svete od roku 2013 nový fenomén, takzvané adversariálne útoky, po slovensky by bol asi výstižný termín záškodnícke. Takýto útok na umelú inteligenciu znamená, že ju veľmi ľahko oklamete, ak to, samozrejme, viete urobiť. Napríklad máme vizuálny systém na báze UI na rozpoznávanie objektov, ktorý môže fungovať veľmi dobre, vie klasifikovať objekty – domy, stromy, živočíchy, dokonca vie výborne generalizovať –, to znamená, správne povedať, čo vidí, aj keď to predtým nikdy nevidel a nebol na to ani natrénovaný. 

„Myslím, že umelá inteligencia má potenciál dosiahnuť a prekonať úroveň ľudskej inteligencie.“

Napríklad nejaké preň nové zviera. No a pri adversariálnych útokoch ide napríklad o toto: Máme obrázok, ktorý je neškodný, sieť ho rozpozná a minimálnym zásahom, doslova zmenou niekoľkých pixelov, sa dá dosiahnuť, že sieť mi povie, že nevidí mobil, ale napríklad žirafu, čiže niečo iné úplne mimo. Znie to neuveriteľne, ale funguje to a človeka by ste takto neoklamali. To je dôkaz, že naše vnímanie je kvalitatívne odlišné od vnímania neurónovej siete. Ak je na obrázku špinka, vnímame ju ako špinku a nie niečo úplne iné. Je zaujímavé, že náhodný šum neoklame ani UI, ale dobre mierený, kontrolovaný šum áno. Je to v podstate hackovanie obrazu. Tento problém by teoreticky mohol vzniknúť aj pri autonómnych autách, napríklad hackovaním dopravných značiek. To je, myslím, väčší problém ako to, koho a ako ohroziť pri havárii. Čo sa týka autonómnych áut, som dosť skeptický, ale hovorí sa o rôznych úrovniach autonómnosti. Adversariálne útoky sú, mimochodom, už možné aj v rovine textu, nielen obrazov. 

v januári sa konal veľtrh CES, ktorý tradične definuje nové trendy v konzumnej elektronike. Jednou z tém bola, samozrejme, UI, ale nič prevratné sa neprezentovalo. ChatGPT, UI, ktorá vám radí, čo navariť z dostupných surovín, ktoré máte, a poradí recepty a takéto veci. A človek si povie, že veď UI už mala robiť operácie, riadiť autá a zachraňovať životy a nie radiť v kuchyni. Zasekli sme sa niekde?

Je tu široké pole možností, ako zapájať UI do života a ona sa už aj zapája do oblastí, kde je to dôležité a zároveň bezpečné. Napríklad v oblasti medicínskej diagnostiky. Pre doktora môže byť UI vyslovene partnerom, aj keď konečné rozhodnutie bude určite na človeku. Máme tu aj oblasti, kde by som nehovoril úplne o typickej umelej inteligencii, ale o strojovom učení, čo je tiež dôležitý pojem a má široký záber. Od umelej inteligencie očakávame, aby mala trochu ľudský rozmer, komunikovala s nami a tak ďalej, ale pomocou algoritmov strojového učenia môžeme riešiť aj zložité problémy napríklad optimalizácie procesov a logistiky veľkých firiem. To sú výpočtovo nesmierne náročné úlohy v premenlivom prostredí.      

má umelá inteligencia vedomie?

To je zložitá otázka. Aj keby sme nadobudli presvedčenie, že nejaký inteligentný humanoidný robot disponuje vedomím, správal by sa ako človek, aj by to o sebe tvrdil, vnímali by sme očný kontakt, prirodzený jazyk, hru telom a tak ďalej, nemáme nijakú možnosť overiť si, či má vedomie. Pretože vedomie je z definície privátna, subjektívna vec. Každý z nás má dôkaz len o svojom vlastnom vedomí (pokiaľ nepredpokladáme, že je to tiež ilúzia). Umelé vedomie – artificial consciousness – je už veľká disciplína, na túto tému sa organizujú konferencie a podobne, ale subjektívna skúsenosť sa nedá skontrolovať zvonka. Ak si raz budeme myslieť, že  vedomie v stroji vznikne na základe analógií medzi neurónovými sieťami u robota a mozgom človeka, nebudeme to mať ako zistiť. Veď aj u zvierat je to problém. Môžeme na základe našich skúseností povedať, že pes ho asi má, dážďovka nie. Ale potom na akej úrovni živočíchov sa to začína?

hovorili ste o tom, že presvedčivosť umelej inteligencie sa zlepšuje. O nebezpečenstve z toho plynúcom sa hovorí už dosť dlho.

Spomenul by som napríklad deep fakes, teda dokonalé podvrhy. Nebude problém vygenerovať video kohokoľvek, ako robí alebo hovorí čokoľvek. Toto nemáme pod kontrolou. Jedno je však isté. Musí sa zmeniť vnímanie vymyslenej, sprostredkovanej reality, ktorej verí veľké percento ľudí. 

bez tejto otázky to asi nepôjde: Hrozí reálne nebezpečenstvo, že umelá inteligencia usúdi, že človek je zbytočný a začne proti ľudstvu vojnu ako v Terminátorovi alebo vzburu ako vo Vesmírnej odysei?

Na túto otázku je ťažko odpovedať z viacerých dôvodov. Predpovedať vývoj je veľmi obtiažne. Je tu veľa skrytých premenných a veľa faktorov, ktoré nemáme pod kontrolou. Myslím, že umelá inteligencia má potenciál dosiahnuť a prekonať úroveň ľudskej inteligencie, len tu treba vývojové skoky. Zatiaľ je schopná riešiť len veľmi úzko špecializované problémy, to by bolo treba ísť smerom k všeobecnej umelej inteligencii a k nej máme ešte dosť ďaleko.

takže reálny Skynet nehrozí?

Nie je žiaden dôvod, prečo by sme mali antropomorfizovať umelú inteligenciu s tým, že by v nej vznikli vlastnosti ako dobyvačnosť, nenávisť k inakosti a podobne. Ale – máme učiaci sa systém a nemáme priamu záruku, čo sa naučí. Napríklad by si, veľmi teoreticky, mohla  z historickej literatúry dostupnej na internete osvojiť, že zabíjať pre benefity je v poriadku. Ale k tomu je ešte dlhá cesta a veľa vrstiev na to, aby sme tomu mohli predísť. Ešte nemáme ani všeobecnú umelú inteligenciu, nieto nejakú superinteligenciu. Umelá inteligencia zatiaľ nerozumie svetu. Cieľom ľudstva by malo byť vyvíjať a používať ju tak, aby nám pomohla zvýšiť kvalitu života.

MARIAN JASLOVSKÝ

igor Farkaš vyštudoval technickú kybernetiku na STU v Bratislave. Od roku 2003 pôsobí na Fakulte matematiky, fyziky a informatiky Univerzity Komenského v Bratislave, od roku 2015 ako vedúci Katedry aplikovanej informatiky. Je držiteľom prestížnych štipendií Fulbrightovej a Humboldtovej nadácie. Absolvoval dlhodobé výskumné pobyty v USA a v Nemecku. Zaujíma sa o výskumné oblasti kognitívnej vedy a umelej inteligencie, ktoré sú tematicky prepojené. Špecializuje sa na skúmanie modelov umelých neurónových sietí a ich využitie najmä v oblasti kognitívnej robotiky v spolupráci s kolegami a kolegyňami v Centre pre kognitívnu vedu. Je koordinátorom európskeho rozvojového projektu TERAIS (v spolupráci s partnermi z Nemecka a Talianska), ktorý má aj vedecký aspekt zameraný na rozvoj robotiky a umelej inteligencie. Od roku 2006 sa podieľa na zabezpečovaní stredoeurópskeho interdisciplinárneho magisterského študijného programu kognitívnej vedy (MEi:CogSci).

Ak si predplatíte tlačený .týždeň na ďalší rok, pomôžete nám prežiť a robiť to, čo vieme. Vopred ďakujeme.

Ak ste našli chybu, napíšte na web@tyzden.sk.
.diskusia | Zobraziť
.posledné
.neprehliadnite