
Deși au apărut destule voci care să susțină că inteligența artificială reprezintă un pericol pentru omenire, industria de tehnologie rămâne prinsă într-o cursă a înarmării când vine vorba de inteligența artificială. Comentând pe acest subiect, Elon Musk este de părere că scenariile apocaliptice unde inteligența artificială scăpată de sub control ajunge să pună în pericol civilizația umană au cam 20% șanse de a se materializa într-o formă sau alta. Iar dacă te gândești că acesta e doar un exercițiu de imaginație încercat după prea multe țigări cu substanțe halucinogene, află că cercetătorii în domeniu susțin că Musk de fapt subestimează pericolul.
„Cred că există o șansă ca aceasta să pună capăt umanității. Probabil că sunt de acord cu Geoff Hinton. că este aproximativ 10% sau 20% sau ceva de genul ăsta”.
Musk susține că după ce și-a recalculat analiza cost-beneficiu a ajuns la concluzia că avantajele sunt totuși prea mari pentru a ignora potențialul inteligenței artificiale. De altfel, antreprenorul american investește masiv în tehnologii de inteligență artificială iar recent a lansat xAI Grok, propriul său chatbot fi inspirat de ChatGPT.
”Cred că scenariul pozitiv probabil depășește scenariul negativ”, cu referire la beneficiile pe care folosirea tehnologiilor de inteligență artificială le-ar putea avea în ce privește îmbunătățirea calității vieții și accelerarea inovației în multiple domenii de activitate, de la manufactură și industrie, până la medicină și dispozitive de înaltă tehnologie.
În reacție la declarațiile lui Musk, Roman Yampolskiy, cercetător în domeniul siguranței AI și director al Laboratorului de Securitate Cibernetică de la Universitatea Louisville, a declarat pentru Business Insider că scenariul în care AI ar putea fi un risc existențial pentru umanitate ar trebui să fie luat și mai mult în serios:
”În opinia mea, credibilitatea scenariului apocaliptic este mult mai mare”, referindu-se la probabilitatea ca AI să preia controlul asupra umanității sau să provoace un eveniment care pune capăt umanității. Cum ar fi dezvoltarea unei arme biologice noi, provocând prăbușirea societății din cauza unui atac cibernetic la scară largă, sau contribuția la provocarea unui război nuclear.
Principalul argument oferit de Yampolskiy este acela că, odată ajuns la un nivel de sofisticare suficient de mare, AI-ul devine prea imprevizibil pentru a mai putea fi anticipat și controlat corespunzător:
”Nu sunt sigur de ce crede (Musk) că este o idee bună să urmărească această tehnologie”.
”Dacă este îngrijorat de concurenții care ajung primii acolo, nu contează, deoarece superinteligența necontrolată este la fel de periculoasă, indiferent de cine o aduce în existență”.
Cu ocazia discursului său, Musk a estimat că inteligența digitală va depăși întreaga capacitate a inteligenței umane combinate până în 2030.
„Crești un AGI. Este aproape ca și cum ai crește un copil, unul care este un super geniu, un copil cu inteligență asemănătoare lui Dumnezeu – și contează cum crești copilul”, a spus Musk la evenimentul din Silicon Valley din luna martie. ”Unul dintre lucrurile despre care cred că este incredibil de important pentru siguranța AI este imprimarea unei personalități curioase, care să caute și să aprecieze adevărul.”
Șeful xAI susține că o regulă esențială pentru dezvoltarea unui model AGI sigur de folosit este să ”nu-l forțezi să mintă, chiar dacă adevărul este neplăcut”, în ideea că odată ce AI-ul învață să mintă oamenii va deveni extrem de eficient în a face asta, iar comportamentul odată dobândit va fi aproape imposibil de lepădat. De aici este doar o chestiune de timp până ce AI-ul ajunge să „creeze” propriile adevăruri cu consecințe dintre cele mai grave.
Tot mai des discutat între cercetătorii din Silicon Valley, scenariul în care inteligența artificială duce la decăderea civilizației umane primește șanse între 5% și 50%, gradul de probabilitate variind în funcție de optimismului și interesele persoanei întrebate.