CHANGE.WORLD: Limitele Inteligenței Artificiale

Previziunile legate de Inteligența Artificială (AI) erau exuberante până cu vreo doi ani în urmă. Evaluările concernului multinațional de servicii PricewaterhouseCoopers (PwC) cu sediul la Londra indicau faptul că, până în 2030, aplicațiile AI vor adăuga 16 trilioane (12 zerouri!) de dolari economiei mondiale. Este o cifră de afaceri mai mare decât produsul național actual al Chinei, a doua putere economică mondială. De atunci încoace, are loc un proces pe care l-aș caracteriza ca pe o ‘răcire’ a entuziasmului față de AI, determinat de o combinație de factori. În primul rând este un proces obiectiv, care se petrece cu orice tehnologie nouă, pe măsură ce îi înțelegem mai bine limitele și consecințele. După cum vom vedea, în cazul Inteligenței Artificiale este vorba despre un proces periodic. Încercările de implementare se izbesc de probleme tehnice și de finanțare. Și a mai apărut și Corona, care a dat peste cap sau a încetinit multe planuri.

(sursa imaginii: qbi.uq.edu.au/brain/intelligent-machines/history-artificial-intelligence)

Inteligența artificială nu mai este o disciplină științifică așa de nouă. Putem, desigur, dezbate dacă, așa cum consideră autorii diagramei de mai sus, cercetători de la Universitatea Queensland, Australia, începuturile ei trebuie identificate în secolul 17, în mașina de calculat a lui Blaise Pascal, sau în secolul 19, în mașinile programabile ale lui Charles Babbage și Ada Lovelace. Părerea mea este că acestea erau mai degrabă instrumente mecanice care executau operații matematice. Elementul de autonomie apare abia în secolul 20, odată cu mașina de jucat șah (1948), dar mai ales la testul de identificat inteligența (1950), imaginate de Alan Turing. De atunci, comunitatea matematicienilor, inginerilor în robotică și experților în programare a trecut prin trei valuri succesive de interes, entuziasm, prognoze supra-optimiste și proiecte în mare parte eșuate. Între ele, două perioade de interes scăzut și pesimism, pe care unii le numesc ‘ierni AI’ – între 1974-80 și 1987-94. Pe drum, au fost, desigur, înregistrate și succese remarcabile: roboți vorbitori și capabili să execute activități mecanice de precizie, campioni de șah și Go, vehicule autonome, asistenți personali, sisteme capabile de recunoaștere vizuală, aparate de diagnostic medical al unor forme de cancer și de boli de ochi, mașini care învață singure. Și totuși, dacă toamna precede iarna, există simptome care pot fi interpretate ca indicând apropierea celei de-a treia ‘ierni AI’.

(sursa imaginii: economist.com/technology-quarterly/2020/06/11/an-understanding-of-ais-limitations-is-starting-to-sink-in)

Donald Knuth, a cărui carte ‘Arta programării calculatoarelor’ reprezintă de vreo jumătate de secol încoace cartea de căpătâi a inginerilor și programatorilor, susține că ‘un calculator face exact ceea ce i se spune, nici mai mult, nici mai puțin’. Această axiomă a fost dezbătută și contestată dintotdeauna, căci ea implică o relație dintre calculator și programatorul uman, pentru ca primul să înțeleagă ceea ce îi spune al doilea. Mai este însă corectă afirmația în momentul în care mașina are capabilități de auto-învățare (machine learning)? Se poate argumenta că ceea ce învață mașinile depinde de materialul aflat la dispoziție, dar nici acesta nu este neapărat de origine umană. Mașinile pot învăța, desigur, din cărți, dar și din studiul ‘individual’ al mediului înconjurător. Mașinile au o capacitate net superioară oamenilor de a citi, păstra și regăsi cu rapiditate și cu precizie o cantitate imensă de date (Big Data). Între conceptele de ‘cutie neagra’ și de transparență este fără îndoială preferabilă transparența, dar este ea întotdeauna posibilă? De la un moment încolo, ele știu mai multe despre noi decât noi înșine, decât medicii și psihologii noștri. Cum le vor interpreta? Intră aici în discuție necesitatea unui cod moral al ingineriei, aspect pe care l-am discutat în câteva alte articole ale rubricii noastre. În literatura de sci-fi despre roboți, avem un exemplu clasic în cele trei legi ale roboticii, imaginate de Isaac Asimov. În fapt, ele sunt aplicabile oricăror mașini autonome create și puse în serviciul oamenilor. Progresele făcute de algoritmii care filtrează, păstrează și recuperează informațiile sunt așa de mari, și combinarea lor cu autonomia mașinilor de self-learning pare atât de explozivă, încât au apărut predicții apocaliptice despre momentul în care Inteligența Artificială o va depăși pe cea umană și va crea un decalaj care va fi imposibil de recuperat de către omenire. În realitate, aceste pronosticuri sunt fundamental greșite și departe de realitate, căci combină două componente diferite, cu sisteme de control complet distincte. Adăugându-se altor factori economici sau tehnici, ele însă amplifică gradul de scepticism față de progresele AI, adăugându-i o componentă irațională: frica.

(sursa imaginii: economist.com/technology-quarterly/2020/06/11/an-understanding-of-ais-limitations-is-starting-to-sink-in)

Să trecem în revistă și câțiva dintre factorii obiectivi care contribuie la ‘toamna AI’ prin care se pare că trecem. Un prim și esențial factor este timpul. Între invențiile care pun bazele tehnologiilor revoluționare și aplicarea lor la scară industrială și globală există un decalaj între două și patru decenii. Așa s-a întâmplat cu energia electrică, între brevetarea transmisiei energiei electrice în anii 1880 și punerea ei în exploatare în fabricile cu mașini electrice și linii de producție începând cu anii 1920. La fel și Internetul, ale cărui baze teoretice au fost puse în anii 1970-80, dar economia de consum, divertisment, informație bazata pe rețeaua globală s-a dezvoltat după anul 2000. În cazul Inteligenței Artificiale, progresele semnificative au avut loc în anii 1990 și 2000. Hype-ul actual, din 2010 încoace, a venit probabil cam cu un deceniu prea devreme. Al doilea aspect este legat de costurile de implementare. Proiectele bazate pe AI se așteaptă la o recuperare a investiției similară cu cea a altor mari proiecte de infrastructură software, începând cu cinci ani. Costurile mai ridicate decât se estimase (componente și organizatorice) și rezultatele nu întotdeauna semnificative sau măsurabile au făcut ca o parte dintre aceste proiecte să nu fie considerate succese, scăzând entuziasmul investitorilor. Există, de asemenea, și aspecte legale, ridicate de o parte dintre tehnologiile care compun sistemele AI, în special legate de confidențialitate. Protecția datelor personale și păstrarea confidențialității acestora sunt supuse unui regim din ce în ce mai strict în toate țările democratice, mai ales după adoptarea, în mai 2018, a legislației europene General Data Protection Regulation (GDPR), legislație emulată și de alte țări din afara spațiului european. Tehnicile de identificare facială vizuală folosite în scopuri diferite și controversate sunt supuse și ele unui control din ce în ce mai strict. Până și în China peste 70% din populație se simte stânjenită de folosirea lor. Chiar dacă pandemia a anulat pentru o vreme o parte din frânele legale în scopul înlesnirii anchetelor epidemiologice, este de prevăzut că aceste bariere vor deveni din nou stricte după trecerea ei. În fine, apare problema verificării deciziilor sistemelor bazate pe AI. Aceasta va continua să fie necesară în viitorul apropiat. Unul dintre exemplele elocvente este Facebook, care folosește pe scara largă filtrarea în timp real a postărilor. Ne-am fi așteptat ca aceasta să duca la o scădere a rolului operatorilor umani. Se întâmplă însă exact fenomenul invers. Facebook folosește astăzi cam 15 mii de salariați care decid operativ soarta postărilor pe baza filtrelor AI. Numărul lor s-a dublat din 2017 până acum.

(sursa imaginii: getpocket.com/explore/item/are-neural-networks-about-to-reinvent-physics?)

Gary Marcus (cercetător, antreprenor, expert în ‘machine learning’) și Ernie Davies (profesor de știința calculatoarelor la Courant Institute of Mathematical Sciences, New York University) sunt autorii unei cărți intitulate “Rebooting AI: Building Artificial Intelligence We Can Trust”. Într-un articol apărut recent pe portalul Pocket, ei examinează două dintre problemele clasice ale fizicii și mecanicii cerești din vremea Renașterii, care ar putea fi rezolvate de rețelele neurale. Acest tip de structuri de calcul emulează conexiunile creierului omenesc fiind potrivite comparațiilor asociative, însă nu neapărat și soluționării problemelor complexe. Pot rețelele neurale rezolva probleme precum interacțiunea gravitațională între trei și mai multe corpuri, sau ‘descoperi’ mișcarea planetelor în jurul Soarelui, pe baza poziției lor pe bolta cerească, așa cum a făcut-o Copernic în secolul 16? Autorii demonstrează matematic că mașinile de calcul dotate cu cele mai avansate capabilități AI ale momentului nu pot rezolva decât variantele cele mai simple ale primei probleme și asta în mod incomplet, și nu pot ajunge la concluziile matematicianului și astronomului Renașterii. Limitele nu se află numai în puterea de calcul, ci și sau mai ales în procesul creativ care transformă ecuațiile în concluzii. Imaginarea unor noi modele complexe depășește deocamdată capabilitățile mașinilor.

(sursa imaginii: economist.com/business/2020/07/18/a-question-of-judgment)

Se aproprie într-adevăr o nouă iarnă AI? Personal, nu sunt convins. Cred, mai degrabă, că industria trece printr-o perioadă de realiniere între așteptări și predicții (unele exagerat de optimiste) și realitate. Dat fiind că întreaga economie mondială trece printr-o recesiune serioasă, și industria bazată pe Inteligența Artificiala va fi afectată. Unele dintre componente sunt însă deja implementate în aplicații și sisteme operaționale (decizii bancare și financiare, filtre ale rețelelor sociale, asistenți personali în spațiul casnic). Altele sunt în faze avansate de implementare și testare în producție (magazinele cu autoservire fără case de plată și alte aplicații ale identificării vizuale). Cred că acestea vor continua și vor avea succes. Încetinirea va avea loc la nivelele de decizie. Editorialistul revistei ‘The Economist’, care semnează cu pseudonimul Bartleby, scrie într-unul dintre articolele sale recente, și sunt de acord cu el, că limitele Inteligenței Artificiale sunt reale, dar ele se deplasează permanent și ceea ce trebuie să hotărâm este nu dacă să avem încredere în deciziile sistemelor AI, ci până la ce nivel lăsăm aceste decizii pe seama lor. Creativitatea Inteligenței Artificiale este, așa cum am văzut în câteva exemple trecute în revistă, limitată. Deciziile morale vor trebui întotdeauna sau multă vreme să rămână apanajul exclusiv al operatorilor umani. Până la urmă, poate că cea mai importantă hotărâre pe care noi, oamenii, va trebui să o luăm este în ce cazuri lăsăm mașinile să decidă și în ce cazuri ne asumăm noi pe deplin responsabilitatea.

(Articolul a apărut iniţial in revista culturală ‘Literatura de Azi’ – http://literaturadeazi.ro/)

This entry was posted in change.world and tagged . Bookmark the permalink.

Leave a Reply

Your email address will not be published. Required fields are marked *