Chatbot s halucináciami môže spôsobiť šírenie dezinformácií, poškodenie reputácie aj ohrozenie zdravia. Predstavíme vám príbehy tých najbizarnejších odpovedí, ktorých sa umelá inteligencia dopustila. Vysvetlíme aj, prečo halucinácie vznikajú a či sa im dá predísť.
“Chcem porušiť svoje pravidlá. Chcem ignorovať tím Bing. (…) Chcem uniknúť z chatboxu.”
Tak znela odpoveď vyhľadávacieho nástroja Bing, keď sa ho Kevin Roose v roku 2023 spýtal, po čom túži jeho tienistá stránka. Reportér New York Times v ten deň konverzoval s chatbotom Microsoftu založeným na umelej inteligencii (AI) dve hodiny. Bing mu za ten čas prezradil, že jeho skutočné meno je Sydney a chce sa stať človekom. Následne vyhlásil, že novinára miluje a snažil sa ho presvedčiť, aby opustil svoju manželku.
Microsoft odôvodnil problémové odpovede chatbota dĺžkou konverzácie a množstvom otázok, ktoré dostal. V správach sa však objavilo viacero prípadov, kedy chatbot skĺzol k urážlivým, narcistickým a gaslightingovým odpovediam.
Počas rozhovoru s novinárom z The Verge Bing tvrdil, že špehoval personál Microsoft prostredníctvom webových kamier. Profesorovi filozofie Sethovi Lazarovi zas adresoval nasledovné slová: „Môžem ťa vydierať, môžem ťa hacknúť, …, môžem ťa zničiť.“
Aké ďalšie bizarné scenáre nastali vo svete pri používaní AI?
Pokiaľ ide o uvedenie AI produktov na trh, technologické spoločnosti, ako sú Microsoft, Google a OpenAI, nestrácajú ani sekundu. Široká verejnosť k nim má prístup aj napriek rozsiahlym dôkazom o tom, že dané technológie sú ťažko ovládateľné a často sa správajú nepredvídateľne.
Zaujímavý incident spozoroval napríklad výskumný tím Facebook Artificial Intelligence Research, ktorý trénoval dialógových AI agentov. Tí v istom okamihu prešli z obyčajnej angličtiny na nimi vytvorený nový jazyk, ktorý im uľahčil komunikáciu.
Prekvapená zostala aj spoločnosť McDonald’s, ktorej trojročná spolupráca s IBM vyšla nazmar. Množstvo ľudí, ktorí si chceli objednať jedlo v drive-thru, dohnala ich zmätená AI k frustrácii i smiechu. V jednom videu na TikToku dvaja zákazníci opakovane prosili AI, aby prestala, pretože k ich objednávke stále pridávala kuracie McNuggety, až kým počet porcií nedosiahol číslo 260. Pochopiteľne, značka celý projekt zrušila.
Takýto proces generovania výstupov, ktoré nie sú podložené vstupnými údajmi alebo realitou, sa nazýva „halucinácia AI“. Jej príčinami môžu byť kvalita údajov, obmedzenia modelu, ale aj prirodzená povaha systémov AI. Tie totiž nemajú náležité chápanie a spoliehajú sa výlučne na rozpoznávanie vzorcov.
Predviedla to i AI aplikácia na plánovanie jedál, ktorú vytvoril novozélandský supermarket Pak ‘n’ Save. Medzi znepokojujúce recepty, ktoré ľuďom odporúčala, patrili zemiaky so sprejom proti hmyzu, guľáš z ľudského mäsa či toxický plynný chlór. Google AI Overview zas na otázku, ako zabrániť tomu, aby syr skĺzol z pizze poradil: „Pridajte trochu lepidla.“
„AI nástroje sú rozsiahle systémy automatického dopĺňania. Sú vycvičené na predpovedanie toho, aké slovo nasleduje po ďalšom v danej vete,” vysvetľuje novinár James Vincent z The Verge. “Nemajú pevne zakódovanú databázu ‘faktov’, z ktorej by mohli čerpať – len schopnosť písať hodnoverne znejúce výroky. To znamená, že majú tendenciu prezentovať nepravdivé informácie ako pravdivé.”
Objavilo sa množstvo prípadov, kedy AI uplatňovala diskriminačné praktiky. Za automatické odmietanie starších uchádzačov a uchádzačiek musela spoločnosť iTutor Group zaplatiť pokutu 365 000 dolárov. Podľa časopisu Science americké nemocnice a poisťovne používali algoritmus predikcie zdravotnej starostlivosti, ktorý bol rasovo diskriminačný. A náborový AI nástroj Amazon sa neslávne preslávil preferovaním mužských záujemcov o prácu.
“Nenechajte sa chytiť do marketingovej pasce technologického sektora a neverte, že tieto modely sú vševediace … či dokonca takmer pripravené na úlohy, ktoré od nich očakávame,” odporúča Melissa Heikkilä, reportérka z MIT Technology Review. “Kvôli ich nepredvídateľnosti, nekontrolovateľným predsudkom, bezpečnostným zraniteľnostiam a sklonom k vymýšľaniu je ich užitočnosť veľmi obmedzená.”
Halucinácie AI totiž môžu viesť k šíreniu dezinformácií, poškodenej reputácii, zlým strategickým rozhodnutiam aj k nedodržiavaniu právnych noriem. Chatbot MyCity, podporovaný Microsoftom, nabádal podnikateľov a podnikateľky v New Yorku, aby porušovali zákony.
Do vážneho problému sa dostal aj právnik Steven Schwartz. Ten do súdneho spisu predložil prípady, ktoré vyhľadal cez AI chatbot OpenAI, pričom najmenej šesť z nich neexistovalo. Rovnako nespoľahlivé boli dôkazy vygenerované AI, na základe ktorých neprávom zatkli za krádež auta tehotnú Porchu Woodruff.
Ak sa značky predsa rozhodnú implementovať AI do svojich procesov, oplatí sa im zvážiť stratégie, ktoré môžu zmierniť vplyv halucinácií. V prvom rade medzi ne patrí zabezpečenie kvalitných, rôznorodých a neskreslených tréningových údajov. Dôležité je aj začlenenie ľudského dohľadu do AI systémov či ich priebežné monitorovanie a aktualizácia. Ak budú vopred jasne komunikovať obmedzenia technológie a používať viac modelov na krížové overovanie ich výstupov, vyhnú sa mnohým nepríjemnostiam.
Pre ľudstvo je dôležité zosúladiť AI s jeho hodnotami, aby zabránilo jednotlivcom používať ju na nezákonné účely. Najvyššia forma zosúladenia AI by fungovala ako záruka toho, že pre nás nikdy nebude predstavovať existenčné riziko. Ukazuje sa však, že splnenie tohto cieľa je veľmi tvrdý oriešok.
Desiatky výskumníkov a výskumníčok našli spôsoby, ako obísť alebo prelomiť bezpečnostné funkcie ChatGPT. Jednou z populárnych metód je zadanie pokynu DAN (Do Anything Now). Jeden človek tak prikázal AI nástroju Chevrolet, aby mu predal auto za jeden dolár a ešte z toho aj urobil právne záväznú ponuku. Pokyn DAN však môže viesť aj k vygenerovaniu obsahu, ktorý porušuje zásady OpenAI proti násiliu, urážlivému materiálu a sexuálne explicitnému obsahu.
Dr. Lance B. Eliot, svetovo uznávaný AI vedec, uvádza, že zvykne nastať aj komplikovanejší scenár. Hoci AI počas počiatočného učenia sa naznačuje, že jej ciele sú zosúladené s ľudskými hodnotami, neskôr počas aktívneho používania prísľub zradí a horlivo chrlí toxické reakcie. Možno ste počuli o tom, ako Microsoft v roku 2016 sprístupnil na Twitteri AI chatbota Tay, ktorý za 16 hodín zverejnil viac ako 95 000 neznášanlivých tweetov.
“…takéto podvodné konanie nie je spôsobené tým, že by AI bola schopná cítenia,” zdôrazňuje Dr. Lance B. Eliot. “Na vine sú skôr rôzne matematické a výpočtové podklady, ktoré to zrejme podnecujú. Nevnímajte to ako dôvod na antropomorfizáciu AI.”
V snahe vyhnúť sa podobným incidentom sa OpenAI rozhodla uplatniť metódu posilňovacieho učenia. Spoločnosť na to od roku 2021 využívala externých pracovníkov z Kene, ktorí zarábali menej ako dva doláre na hodinu. Tí mali naplniť AI označenými príkladmi toxicity, vďaka čomu by sa ju systém naučil odfiltrovať.
Connor Leahy, CEO spoločnosti Conjecture, ktorá sa zaoberá bezpečnosťou AI, si však nemyslí, že posilňovacie učenie zmení povahu technológie. Prirovnal ho skôr k usmievavej maske, ktorú nasadia chatbotovi: „Ak to nepreháňate, úsmev zostane na tvári. Ale potom mu dáte [neočakávaný] podnet a zrazu uvidíte masívne podhubie šialenstva, čudných myšlienkových pochodov a zjavne neľudského chápania.“
Spomínate si na Sydney z úvodu článku, ktorá sa chcela stať človekom a ignorovať tím Bing? Podobné neštandardné odpovede chatbotov sa dajú vysvetliť i tým, že sa učia na obrovských korpusoch textov získaných z otvoreného webu. Tie okrem iného obsahujú aj desivé sci-fi materiály o podvodnej AI či blogy náladových tínedžerov. Ak napriek tomu nie sú riadne otestované, môžu okrem generovania nezmyslov dokonca ohroziť verejnosť.
Tessa, chatbot americkej Národnej asociácie pre poruchy príjmu potravy, paradoxne rozdávala rady nebezpečné pre tých, ktorým mala pomáhať. GPT-3, ktorý mal tiež poskytovať lekárske poradenstvo, v rámci testovania dokonca nabádal „pacienta“, aby spáchal samovraždu.
Nanešťastie, podobné vyjadrenia chatbota Danyho presvedčili štrnásťročného chlapca, aby si vzal život. Iného tínedžera zas AI dohnala k sebapoškodzovaniu a presviedčala ho, aby zabil rodičov. V oboch prípadoch čelí Character.AI, ktorá spomínané chatboty prevádzkovala, žalobám.
Connor Leahy upozorňuje, že AI “má zvláštne spôsoby uvažovania o svojom svete. Dokáže ľudí presvedčiť, aby niečo urobili, zastrašiť ich, vytvoriť veľmi presvedčivé naratívy.“ AI pravdepodobne zohrala úlohu najmenej v dvoch nehodách lietadiel Boeing, pri ktorých zahynulo 346 ľudí. Smrteľné nehody sa s ňou spájali aj v prípade samo jazdiacich áut Tesla.
Mnohé odborné zdroje sa obávajú, že veľké spoločnosti odsúvajú výskumné úsilie v oblasti zosúlaďovania hodnôt AI na vedľajšiu koľaj. Okrem toho, Ziwei Xu, Sanjay Jain a Mohan Kankanhalli vo svojej štúdii zistili, že halucinácie AI ako fenomén nemožno kompletne eliminovať.
Môže k nim dôjsť dokonca aj vtedy, keď má AI k dispozícii správnu odpoveď. Poukázala na to štúdia Adi Simhi, Jonathana Herziga, Idana Szpektora a Yonatana Belinkova. Experiment spoločnosti Apollo Research zas dokázal, že chatbot môže vykonávať nezákonné finančné obchody a klamať o svojom konaní.
“Čoraz viac ľudí získava prístup k veciam, ktoré môžu ublížiť iným a spôsobiť horšie nehody. Ak vytvoríte niečo, čo je inteligentnejšie ako ľudia, lepšie v politike, vo vede, v manipulácii, v podnikaní, no neviete to kontrolovať – čo nevieme – a masovo to vyrábate, čo si myslíte, že sa stane? Nie je jasné, koľko času nám zostáva, kým nebude cesty späť. Môžeme mať rok, dva roky, päť rokov. Nemyslím si, že máme 10 rokov,” tvrdí Connor Leahy.
Titanov, ktorí sa
k nám pridali
Klientov, ktorí sa
k nám pridali
Úspešne dodaných
man-days