După orice ospăț vine nota de plata. Fie că o plătim noi, fie că o plătește nasul, fie că vreun generos sponsor acoperă cheltuielile. Evoluția explozivă a Inteligenței Artificiale nu este doar un ospăț din punctul de vedere al consumatorilor ci și o investiție în care cei care plătesc se așteaptă la rentabilitate și profituri, mai devreme sau mai târziu. Comparativ cu revoluțiile tehnologice precedente, introducerea Inteligenței Artificiale solicită cheltuieli considerabile încă din fazele de cercetare, dezvoltare a aplicațiilor și introducere treptată în economie și viața socială. Sumele uriașe de bani și resurse de diferite feluri care sunt investite se împart în trei categorii: software AI și baze de date pentru procesele de auto-învățare; energie; hardware și în special componente electronice pentru executarea sistemelor AI. În articolul de astăzi al rubricii CHANGE.WORLD voi trece în revistă cele mai recente evoluții în cele trei categorii.
(sursa imaginii: www.economist.com/science-and-technology/2024/11/06/a-battle-is-raging-over-the-definition-of-open-source-ai)
Software-ul costă. Forța de muncă de înaltă calificare care dezvoltă programele avansate este scumpă, iar rezultatele activităților lor sunt protejate de reguli stricte de proprietate intelectuală. Până prin anii ’80 ai secolului trecut cam toate sistemele din această industrie erau sisteme închise. Primele semne de schimbare au apărut odată cu introducerea calculatoarelor personale (PC) și implementarea rețelei globale Internet. Fabricanții de PC-uri doreau cât mai multe aplicații care să fie folosite de echipamentele lor, iar inventatorii și promotorii Internetului concepeau un sistem deschis, prin care toate calculatoarele și terminalele să schimbe informații și să interacționeze pe baza unor standarde universal acceptate. Există diferite grade de ‘deschidere’, însă forma cea mai radicală este cea numită Open Source (cod sursă deschis) în care întregul sistem software este liber accesibil pentru oricine. Avantajele unui astfel de sistem includ examinarea programelor de alți utilizatori și îmbunătățirea lor pe baza comentariilor primite, dezvoltarea de aplicații eficiente care folosesc componente comune și venituri posibile prin servicii de întreținere și consulting. Companiile care adoptă Open Source renunță însă la veniturile directe imediate rezultate din vânzarea licențelor. În deceniile care au trecut de la introducerea Internetului, metoda Open Source a fost adoptată de sistemele de operare Android al lui Google și iOS al lui Apple și de toate browserele populare. A fost înființat și un for internațional numit Open Source Initiative (OSI) care definește criteriile utilizării acestui tip de programe. Directivele actualizate includ un criteriu important: toate instrucțiunile programului original trebuie să fie accesibile, însoțite de o licență care permite utilizatorilor folosirea lor gratuita, cu condiția ca produsele rezultate să fie și el făcute accesibile prin aceeași metodă. Un exemplu clasic al acestei deschideri prin moștenire este însuși sistemul de operare Android, dezvoltat pe baza codului open source al sistemului de operare Linux.
(sursa imaginii: https://justai.in/meta-launched-llama-3-the-ai-powerhouse-that-outshines-chatgpt/)
Până foarte recent, firmele și organizațiile producătoare de produse și sisteme AI au fost foarte reticente în a-și dezvălui secretele. Evoluția spre Open Source era însă previzibilă și inevitabilă. Este vorba însă despre același fel de deschidere ca și cea practicată în alte domenii ale programării? Se impune precauție. Meta, gigantul tehnologic american care include Facebook, susține că modelul său mare de limbaj (LLM), Llama 3, este „open source”, împărtășind produsul finit cu oricine dorește să construiască gratuit, folosindu-l, sisteme AI. Cu toate acestea, compania impune și restricții privind utilizarea sa, inclusiv interzicerea utilizării modelului pentru a construi produse cu peste 700 de milioane de utilizatori activi lunar. Alte laboratoare, de la Mistral din Franța la Alibaba din China, au lansat, de asemenea, LLM-uri pentru utilizare gratuită, dar cu constrângeri similare. ‘Codul’ unui produs AI nu seamănă cu codul unui produs software clasic. Memorizarea emulează legăturile dintre neuroni în creierul omenesc, rezultat al unui proces iterativ de învățare autonomă. Ceea ce Meta pune la dispoziția utilizatorilor nu este programul însuși, ci ponderile legăturilor dintre noduri (neuroni). Nivelul de deschidere este aproximativ echivalent nivelului de acces al interfețelor programabile (API) din programarea clasica, comparativ cu sursa însăși. În plus, licența de folosire gratuită este oferită cu limitări. Cum fiecare pas iterativ poate genera rezultate diferite, nu este garantat faptul că rezultatul procesului de învățare va fi identic cu cel al sistemului original. Definițiile OSI cer ca un cod Open Source să fie liber de folosit, examinat, modificat și transmis mai departe. Dar chiar și cerințele organizației se opresc din a impune expunerea datelor din sistemele de învățare. Motivele sunt diferite, de la probleme legate de confidențialitatea informației (de exemplu lista și caracteristicile utilizatorilor Facebook sau a clienților Amazon) până la riscul ca sistemele să fie folosite în scopuri nedorite, cum ar fi sistemele militare ale unor state ostile. Llama 3 este în prezent cel mai avansat LLM deschis sau semi-deschis prin Open Source. Definirea gradului de deschidere are loc în paralel cu utilizarea sa comercială. Facebook a făcut un pariu de business, renunțând la venitul din licențe pe termen scurt, în speranța că avantajele Open Source îi vor aduce venituri crescute în viitor. Utilizatorii beneficiază de reduceri de prețuri de dezvoltare semnificative. Mark Zuckerberg rar a făcut pariuri perdante.
(sursa imaginii: www.scientificamerican.com/article/the-ai-boom-could-use-a-shocking-amount-of-electricity/)
Consumul de energie este al doilea factor major de cost legat de Inteligența Artificială. Modelele de învățare automată cer cantități uriașe de energie. Energia necesară pentru antrenarea și operarea acestor modele ar putea provoca probleme atât pentru mediu, cât și pentru progresul aplicațiilor de învățare automată. Generarea unui răspuns dat de ChatGPT în legătură cu un subiect oarecare consumă în medie 2,9 wați-oră, cam de zece ori mai multă energie decât o căutare Google a aceluiași articol. Aplicațiile AI reprezintă deja o parte însemnată din totalul energiei consumate de centrele de date, aceasta fiind prevăzută să reprezinte în 2026 intre 4% și 5% din totalul energiei consumate în Statele Unite și între 5% și 6% din totalul energiei consumate de China. În același timp, Inteligența Artificială contribuie la optimizarea consumului de energie electrica. Specialiștii estimează că aceste optimizări ar putea aduce ajustări intre 5% și 10% din totalul de consum energetic până în 2030. Între ele se află elemente de hardware specializat, cum ar fi noi acceleratoare și noi tehnologii precum cipurile 3D, care oferă performanțe mult îmbunătățite cu tehnici de răcire a cipurilor. Producătorul de cipuri de computere Nvidia susține că noul său „supercip” poate oferi o îmbunătățire a performanței de 30 de ori atunci când rulează servicii AI generative, folosind în același timp de 25 de ori mai puțină energie. Toți giganții industriali americani, chinezi și europeni includ în planurile lor de dezvoltare cheltuielile legate de consumul energetic necesar proceselor de învățare automată și rutinelor de interacțiune generativă cu consumatorii, inclusiv centre de date dedicate, conforme normelor de utilizare optimă și ecologică pentru generarea energiei necesare funcționării acestora.
(sursa imaginii: www.linkedin.com/pulse/difference-between-ai-chips-gpu-asourcing-electronics-limited-z94zc)
Specialiștii în informatică știu că până la urmă costurile de exploatare depind în mare măsură de echipamentele hardware folosite pentru calcul și memorarea datelor. Din 1965 încoace industria a fost martora unui proces de miniaturizare continuă a elementelor de bază ale circuitelor electronice – tranzistorii – descris de ceea ce experții numesc Legea lui Moore (după numele lui Gordon Moore, unul dintre fondatorii firmei Intel). Anual, (după câteva decenii la fiecare doi ani), numărul de tranzistori care pot fi integrați într-un circuit cu același preț se dublează. Legea aceasta a funcționat cu uimitoare precizie până în primul deceniu al mileniului trei și a fost suficientă pentru a coordona progresele fizicii semiconductorilor și nevoile industriei. Inteligența Artificială răstoarnă însă și această paradigmă. În primul rând, foamea de putere de calcul și mai ales de memorie este în creștere. În al doilea rând este necesară o schimbare de arhitectură. În ultimul rând, miniaturizarea se aproprie de limitele capacității fizice, cu straturi ale căror dimensiuni se aproprie de cele ale atomilor. Celebrul fizician Richard Feynman scria în 1959, prevăzând nanotehnologia: ‘Cum ar fi dacă am putea aranja atomii unul câte unul, așa cum dorim?’. Nu suntem acolo încă, dar nici departe. Schimbările de arhitectură adaptează unitățile de calcul și memoriile rețelelor neuronale, similare sinapselor din creier. Firmele producătoare de componente electronice și în primul rând NVIDIA ne-au obișnuit cu tranziția de la unitățile procesoare de calcul (CPU) la cele de procesare grafică (GPU) optimizate pentru operații AI. Acum este rândul să învățam noi inițiale și anume TPU adică Tensor Processing Unit, care distribuie puterea de calcul asociind unități de calcul aritmetic nodurilor unei matrici neuronale. De aici este un pas până la tipuri de HW optimizate aplicațiilor AI. Firma Apple deja vorbește despre integrarea în produsele sale a unor unități de procesare neurală (NPU). Deocamdată aceste elemente se afla în faza de investiții și dezvoltare. Costurile sunt încă foarte mari în comparație cu echivalentele lor convenționale. Odată cu intrarea în fabricație și exploatare, vor apare însă și optimizările de prețuri, așa cum s-a întâmplat cu generațiile precedente.
(sursa imaginii: https://steamcommunity.com/sharedfiles/filedetails/?id=2748258150)
Ca la o masă copioasă cu trei feluri – software, energie, hardware –, revoluția Inteligentei Artificiale vine cu costurile ei, și precum zice o cunoscută zicală – ‘Nu exista prânzuri gratuite’. La fel cum s-a întâmplat cu Internetul sau cu rețelele sociale, o mare parte dintre aceste costuri sunt deocamdată acoperite de investitori, de marile firme care doresc să-și extindă portofoliile și de start-up-uri ambițioase care intenționează să cucerească lumea. Utilizatorii de business sau cei individuali sunt ademeniți cu oferte promițătoare, cu promoții și cu versiuni experimentale. Prețul, până la urmă, va fi plătit tot de ei, adică de noi, uneori sub formă directă, de cele mai multe ori prin servicii care vor deveni atât de utile încât nu vom mai putea trăi fără ele (sau așa ni se va părea). Pentru a ieși în câștig și a beneficia de aceste progrese, trebuie în primul rând să le cunoaștem, să diferențiem realitățile de promisiunile prea optimiste, dar și de predicțiile apocaliptice. Este ceea ce încercăm și noi să facem aici, în rubrica CHANGE.WORLD, săptămână de săptămână.
(Articolul a apărut iniţial în revista culturală ‘Literatura de Azi’ – http://literaturadeazi.ro/)