În articolul meu de săptămâna trecută, din cadrul rubricii CHANGE.WORLD, am discutat pe larg despre pericolele dezvoltării necontrolate a aplicațiilor Inteligenței Artificiale (AI), despre avertismentele experților în domeniu, ale istoricilor și sociologilor și despre măsurile foarte necesare și urgente de limitare a riscurilor. Întrebarea firească pusă de cei care sunt expuși acestor probleme este de ce, în condițiile în care aceste tehnologii implică atâtea riscuri, ele continuă să fie dezvoltate și extinse? Merită progresele realizate până acum și promisiunile viitoare riscurile pe care ni le asumăm? Răspunsul la aceasta întrebare este DA. Scris cu majuscule. Voi încerca în cele care urmează să argumentez.
(sursa imaginii: https://towardsdatascience.com/the-art-and-science-of-building-ai-48f320d66da6)
Un lucru trebuie menționat de la început. Inteligența Artificială beneficiază de progresele semnificative înregistrate în ultimele decenii de alte domenii: micro și nano-electronica și tehnologiile de transfer de date. Un singur cip cu o suprafață de câțiva centimetri pătrați poate include astăzi puterea de calcul a întregii planete din deceniul 9 al secolului XX (anii ’80). Viteza și capacitatea de transfer a informației a crescut cu 12 ordine de mărime în patru decenii. Avansul fizicii și în special calculul cuantic amplifică aceste realizări pentru anumite categorii de aplicații și în rezolvarea unor probleme specifice. Nu toate aceste progrese sunt însă legate de AI, dintre acelea care trebuie incluse în categoriile AI cu riscurile aferente. Altele însă sunt chiar specializate în AI – de exemplu, cipurile proiectate și produse de Nvidia și de competitorii săi (AMD și câteva firme chineze). Aceste progrese au accelerat spectaculos în ultimul deceniu capabilitățile de învățare ale mașinilor și au permis dezvoltarea explozivă a domeniului Inteligenței Artificiale generative, capabile să creeze pe bază de modele prestabilite, îmbunătățite sau create, la rândul lor, de mașini, diferite forme de comunicare textuală, sonoră sau vizuală, să construiască obiecte, să scrie programe de calculator sau să imagineze modalități și forme viitoare de exprimare. Se apreciază că, în 2023, 99% dintre domeniile științifice au fost într-un fel sau altul influențate de AI și în special de tehnicile de învățare profundă (deep learning) ale mașinilor. Ultimii ani au fost martorii unui progres semnificativ în domeniul interfețelor de acces la calculatoare. O parte semnificativă din munca de codificare, rezervată până acum programatorilor și inginerilor de sistem cu diplome în domenii legate de științele de calcul poate fi acum automatizată prin intermediul interfețelor tip ChatGPT.
(sursa imaginii: https://alphafold.ebi.ac.uk/)
Una dintre caracteristicile neliniștitoare ale acestui progres tehnologic accelerat este faptul că nici măcar programatorii care au creat și codificat mecanismele AI nu au o înțelegere completă a felului în care mașinile gânditoare și programele scrise de ei funcționează. Un exemplu este aplicația AlphaFold a lui GoogleDeepMind. Formele în care proteinele se răsucesc după ce sunt produse într-o celulă sunt determinante pentru funcțiile pe care le vor avea, dar oamenii de știință încă nu știu cum se pliază proteinele. AlphaFold, creat în 2021, oferă un model care a învățat singur să prezică structura unei proteine numai din secvența sa de aminoacizi. De când a fost lansat, AlphaFold a produs o bază de date cu peste 200 de milioane de structuri de proteine prezise, care a fost deja folosită de peste 1,2 milioane de cercetători. De exemplu, Matthew Higgins, un biochimist de la Universitatea din Oxford, a folosit AlphaFold pentru a afla forma unei proteine din țânțari care este importantă pentru parazitul malariei pe care îl transportă aceste insecte și a reușit să combine predicțiile de la AlphaFold pentru a afla care părți ale proteinei ar fi cel mai ușor de atacat cu un medicament. O altă echipă a folosit AlphaFold pentru a găsi, în doar 30 de zile, structura unei proteine care influențează modul în care un tip de cancer la ficat se răspândește, deschizând astfel ușa pentru proiectarea unui nou tratament adecvat pacienților. Dar … „Nu înțelegem complet cum a creat AI această structură”, declara Pushmeet Kohli, unul dintre inventatorii AlphaFold, care acum conduce echipa Google DeepMind „AI for Science”. Chiar dacă până în acest moment rezultatele sunt numai pozitive, situațiile în care aplicațiile iau decizii autonome care nu sunt înțelese nici măcar de creatorii lor îngrijorează. Yuval Noah Harari proiecta un asemenea scenariu în domeniul financiar, folosind ca punct de referință criza financiară din anii 2007-2008. Atunci un grup ultra-specializat de experți crease niște produse financiare speculative în domeniul imobiliar, bazându-se pe o matematică pe care nu o înțelegea nimeni în afară de ei. Rezultatul a fost catastrofal pentru economia globală. Astăzi vorbim despre consilieri financiari AI, dar nici măcar cei care scriu programele nu pretind că înțeleg complet cum iau decizii mașinile AI. Nu este vorba despre o situație similară, cu riscuri similare pentru sistemul bancar internațional?
(sursa imaginii: www.forbes.com/sites/garydrenik/2023/01/11/large-language-models-will-define-artificial-intelligence/)
Unele dintre progresele semnificative (și angoasele aferente) ale AI se referă la domeniul modelelor lingvistice mari (large language models – LLM) care i-a determinat să intre în grevă pe scenariștii de la Hollywood și a generat îngrijorare în rândul profesorilor speriați de perspectiva temelor de casă în format de eseu pe care elevii le-ar putea obține de-a gata de la ChatGPT, înlocuind laborioasa muncă de documentare în biblioteci sau chiar de pe Internet. Un sistem LLM poate genera propoziții cu sens, prezicând următorul cel mai bun cuvânt dintr-o secvență. Nu este însă nici pe departe singura aplicație. Modelele moleculare generative sunt capabile să construiască molecule, atom cu atom, legătură cu legătură. Sistemele LLM folosesc un amestec de statistici auto-învățate și trilioane de cuvinte din texte culese de pe internet pentru a scrie în moduri care imită în mod plauzibil un om. Instruite pe baze de date vaste de medicamente cunoscute și proprietățile lor, modelele pentru „proiectare moleculară” pot afla ce efecte au structurile moleculare imaginate. În mod similar, pot fi imaginate noi antibiotice sau materiale din care să se fabrice bateriile electrice ale viitorului. În acest ultim domeniu, Universitatea din Liverpool a raportat recent un succes semnificativ. Se căuta un material nou, mai ușor, mai economic, cu randament și stabilitate cel puțin la fel de bune în fabricarea bateriilor. Dintre cele peste 200 000 de structuri cristaline stabile propuse, aplicațiile AI au redus grupul celor care urmau să fie testate în laborator la doar cinci, economisind semnificativ timp și fonduri. Candidatul final, un material care combină litiu și sulfură și clorat de cupru, urmează să fie supus unor riguroase teste de stabilitate și fezabilitate. Similar și chiar mai mult, în domeniul medical, substanțele chimice proiectate de algoritmi vor trebui, de asemenea, să fie supuse testelor obișnuite în lumea reală pentru a putea fi evaluate eficacitatea, non-toxicitatea, efectele secundare.
(sursa imaginii: www.datacenterdynamics.com/en/news/nvidia-plans-most-energy-efficient-supercomputer-ever-will-use-it-to-build-a-digital-twin-of-the-earth/)
Progrese semnificative au fost înregistrate în ultimii ani și în alte domenii. GitHub, platforma și serviciul bazat în ‘nor’ pentru proiectarea și controlul versiunilor de software, consideră că folosirea unor aplicații bazate pe LLM precum ‘Copilot’ îi ajută pe programatori să scrie un cod cu o viteză crescută cu 55%. Pangu-Weather, o aplicație AI proiectată de compania chineza Huawei, poate face predicții meteorologice cu o săptămână în avans de mii de ori mai rapid și mai ieftin decât randamentul actual, fără nicio scădere semnificativă a preciziei. FourCastNet, un model construit de Nvidia, poate genera astfel de prognoze în mai puțin de două secunde și este primul model AI care prezice ploaia cu precizie, la o rezoluție spațială mare, ceea ce reprezintă o informație importantă pentru prezicerea dezastrelor naturale, cum ar fi inundațiile rapide. Ambele modele AI sunt antrenate pentru a prezice vremea prin auto-învățare din date observaționale sau din rezultatele simulărilor de la supercomputer. Și acesta este doar începutul. Nvidia a anunțat deja planuri de a construi un model geamăn digital al Pământului, numit „Earth-2”, despre care compania speră că va putea prezice schimbările climatice la un nivel mai regional, cu câteva decenii în avans. La Geneva, unde se află cel mai mare și mai puternic accelerator de particule din lume – Large Hadron Collider (LHC) –, algoritmii AI au fost propuși pentru a corela cantitatea imensă de informații primite de echipe specializate în ramuri diferite ale fizicii, inclusiv cu informațiile cosmologice. Se apreciază că, într-o oră de funcționare, acceleratorul creează o cantitate de informație echivalentă celei generate de Facebook într-un an. Precedentul există aici, unde, în 2012, tehnici de învățare a mașinilor au ajutat la descoperirea bosonului Higgs, o particulă de bază în modelul standard acceptat astăzi al mecanicii cuantice.
(sursa imaginilor: www.infoclutch.com/installed-base/artificial-intelligence-data-limitations/)
Recunoașterea și înțelegerea progreselor trebuie să fie însoțite de aprecierea și acceptarea limitelor. Modelele AI au demonstrat că pot prelucra date și automatiza calculele și unele lucrări de laborator. AI este extrem de utilă pentru a ajuta oamenii de știință să completeze golurile în cunoștințe, dar modelele încă se luptă să depășească marginile a ceea ce este deja cunoscut. Aceste sisteme sunt bune la interpolare – conectarea punctelor –, dar mai puțin la extrapolare, adică să imagineze unde ar putea fi situat următorul punct. Gradul de autonomie care li se acordă trebuie să fie controlat cu rigurozitate, pentru a rămâne în marja de siguranță și în afara zonelor de risc. Potențialul este uriaș: la fel cum telescoapele și microscoapele le permit oamenilor de știință să vadă mai mult din Univers, modelele probabilistice, bazate pe date, utilizate în AI le vor permite din ce în ce mai mult oamenilor de știință să modeleze și să înțeleagă mai bine sistemele complexe. Devine posibilă și o importantă schimbare metodologica în avansul științei. Domenii precum știința climei și biologia structurală se află deja în punctul în care oamenii de știință știu că au loc procese complicate, dar până acum cercetătorii au încercat în principal să înțeleagă acele subiecte folosind modele, reguli, ecuații și simulări de sus în jos (top-down). Inteligența Artificială poate ajuta oamenii de știință să abordeze problemele de jos în sus (bottom-up), să măsoare mai întâi o mulțime de date și să folosească mai târziu algoritmi pentru a găsi regulile, modelele, ecuațiile și înțelegerea științifică. Oamenii de știință sunt totdeauna precauți în adoptarea de modele noi de gândire și explorare. În cazul Inteligenței Artificiale, progresul este inevitabil, iar lărgirea orizonturilor produsă de aceasta abia începe.
(Articolul a apărut iniţial în revista culturală ‘Literatura de Azi’ – http://literaturadeazi.ro/)