Există calculatoare și super-calculatoare. ‘Computers’ și ‘supercomputers’. Definiția super-calculatoarelor este relativ simplă și destul de trivială. Super-calculatoarele sunt calculatoare cu performanțe mult superioare celorlalte calculatoare (celor de uz general). Prin performanțe se înțelege, în general, puterea de calcul măsurată în operații pe secundă, deși vom vedea în continuare că și alți factori pot influența ‘performanțele’. În articolul de astăzi al rubricii CHANGE.WORLD, voi trece în revistă câteva știri ‘fierbinți’ din acest domeniu, aflat mai puțin în atenția presei, dar care are o importanță semnificativă în progresul cunoașterii și reprezintă infrastructura altor discipline ale științei și tehnologiei.
Nu este probabil o surpriză faptul că și în domeniul super-calculatoarelor are loc o competiție acerbă între Statele Unite și China. Un clasament al celor 500 cele mai puternice super-calculatoare aflate în exploatare în lume la începutul anului 2019 arată că aproape jumătate (219) se află în China, în timp ce Statele Unite se află pe locul 2 cu 116 super-calculatoare. Japonia se clasează pe un distant loc 3. În ceea ce privește puterea de calcul instalată, americanii îi depășesc net pe chinezi. Motivul? Super-calculatoarele lor sunt mult mai performante. În clasamentul primelor 10 super-calculatoare, în ordinea performanțelor, apar 7 super-calculatoare americane, 2 din China (locurile 3 și 4) și unul din Japonia. Super-calculatorul cel mai performant din lume este considerat în prezent a fi modelul Summit construit de IBM instalat de Departamentul Energiei al guvernului american. Puterea maximă de calcul măsurată efectiv a acestuia este de 148,600 teraflops (unitate de măsură pentru performanțele supra-calculatoarelor, 1 teraflop = 1 milion de milioane de operații cu virgulă mobilă pe secundă). Apropo, toate aceste date trebuie evaluate cu precauție, căci informații sau detalii despre unele instalații de super-calculatoare cu aplicații strategice s-ar putea să nu fie făcute publice.
Super-calculatoarele despre care vorbim arată cam așa cum sunt reprezentate în filmele de science-fiction. Nenumărate dulapuri imense, interconectate între ele și plasate în camere care necesită răcire permanentă. Ocupă mult loc și sunt energofage. Numărul mare de piese componente și legăturile între ele (necesare datorită faptului că modul lor de funcționare este calculul concurent sau în paralel) le reduc fiabilitatea. Aici intervine aspectul tehnologic. În definitiv puterea de calcul și memoria a ceea ce era considerat un super-calculator acum o jumătate de secol, de exemplu sistemele de calcul care au participat la programul Apollo, poate fi astăzi egalată de performanțele unui telefon mobil. Miniaturizarea va continua, dar super-calculatoarele viitorului nu se vor baza numai pe progresele hardware. Oamenii de știință au imaginat deja noi tipuri de calculatoare, bazate pe principii diferite de logică binară a calculatoarelor clasice, bazate pe ‘biți’ care au două stări precise – zero și unu. În luna septembrie, compania Google a ajuns pe prima pagină a ziarelor din întreaga lume, anunțând o realizare excepțională – primul prototip al unui calculator cuantic, capabil să execute în trei minute un tip de operațiuni specifice pentru care cel mai puternic super-calculator de astăzi ar trebui să lucreze 10 mii de ani. Aceste calculatoare folosesc fenomene ale fizicii cuantice care se bazează pe trei principii revoluționare: folosirea unei logici nebinare, care înlocuiește ‘biții’ cu ‘qubiți’ sau biți cuantici care permit aproape zece milioane de stări intermediare între zero și unu; legăturile între qubiți, similare celor dintre particulele elementare, pot fi create cu o viteză mult superioară circulației electronilor în calculatoarele clasice; algoritmii se bazează nu pe logică recursivă, ci pe un sistem de probare a tuturor soluțiilor posibile ale unei probleme, plecând de la premiza că orice problema finită poate avea orice soluție finită, și soluția (unică sau nu) poate fi găsită prin testare.
Trebuie menționat că anunțul făcut de Google a fost întâmpinat, încă din primul moment, de comentarii sceptice și contra-anunțuri ale firmelor concurente. IBM a replicat că prototipurile sale de super-computere au ajuns aproape la aceleași performanțe ca cele anunțate de Google, însă măsurătorile lor sunt mult mai riguroase. Experții în hardware au comentat faptul că mașinile cuantice operaționale au nevoie de sisteme de răcire la temperaturi apropriate de zero absolut, ceea ce este greu realizabil și extrem de energofag pe suprafața Pământului. S-ar putea ca lansarea și operarea super-calculatoarelor în spațiul cosmic să fie o soluție în viitor, dar în asemenea condiții și performanțele super-calculatoarelor binare sunt amplificate cu multe ordine de mărime. Răspunsul cel mai documentat a fost cel dat de Intel și Microsoft care, la 23 octombrie, într-un articol postat on-line pe arXiv, un site public moderat de Universitatea Cornell, susțin că metoda ‘circuit sampling’, folosită în testele și măsurătorile lui Google, este problematică, iar rezultatele anunțate de aceștia nu au fost măsurate exact sau calculate deterministic, ci extrapolate pornind de la performanțele unui dispozitiv simplu. Prototipul lui Google are 53 qubiți, cele ale concurenților mai puțin de 100. Pentru a atinge performanțele anunțate cu un nivel de încredere corespunzător este nevoie de calculatoare cuantice de la 100 de mii de qubiți în sus. Nu aș exclude posibilitatea construirii acestora în viitor, dar sigur nu în actuala generație și cu tehnologiile pe care le cunoaștem astăzi. Mai există o problemă: super-calculatoarele cuantice nu sunt eficiente pentru a rezolva orice problemă, ci pentru anumite tipuri de operații – de exemplu, unele categorii de criptografie sau predicții în evoluția piețelor financiare. În multe alte aplicații, super-calculatoarele binare vor continua să fie mai eficiente.
Să ne întoarcem atunci la miniaturizare. Care este astăzi stadiul cel mai avansat al miniaturizării în domeniul super-calculatoarelor binare? Răspunsul îl putem găsi într-o serie de anunțuri făcute în luna noiembrie 2019 de către firma californiană Cerebras, care folosește tehnologia numită wafer-scale engine (WSE), aparținând firmei taiwaneze TSMC. WSE sunt practic super-computere pe un ‘chip,’ dar ‘chipul’ acesta este mult mai mare decât micro-circuitele obișnuite, așa încât un nume mai corect ar fi super-computere pe un ‘wafer’ – adică placa de material semiconductor din care, în mod obișnuit, sunt decupate sute sau mii de circuite. De data aceasta, plăcile rămân compacte, iar unitățile de calcul sunt interconectate între ele. Sunt astfel evitate problemele legate de fiabilitatea conexiunilor, iar suprafețele circuitelor sunt reduse cu câteva ordine de mărime. Desigur, erori pot apare și în procesele tehnologice de fabricare a semiconductoarelor, dar firma taiwaneză declară că stăpânește procesele tehnologice și că poate detecta și remedia automat cele 100 până la 200 de defecte posibile pe un WSE cu o capacitate de mai mult de un trilion de tranzistori. Pentru comparație, un ‘chip’ din super-calculatoarele de astăzi are cam de 1000 de ori mai puțini tranzistori, adică ‘doar’ câteva miliarde. Primul supercalculator produs de firma Cerebras, numit CS-1 a fost livrat și pus în funcțiune la laboratoarele Argonne ale aceluiași Departament al Energiei, care folosește și modelul Summit al lui IBM. Să comparăm însă dimensiunile: Summit cântărește 340 de tone și ocupă o suprafață de 520 de metri pătrați, în timp ce CS-1 cântărește în jur de 250 kg și are mărimea unui frigider. Consumul de electricitate al lui CS-1 este de 15-20 kW, în timp ce Summit consumă de 1000 de ori mai mult. Software-ul pe care îl folosește CS-1 include un sistem de operare optimizat pentru operații de algebră liniară, infrastructura matematică a mașinilor cu capacitate de auto-învățare, una dintre ramurile cele mai importante ale Inteligenței Artificiale.
Performanțele super-calculatoarelor sunt bazate nu numai pe capacitățile de calcul, ci și pe viteza de acces și volumul de memorie care poate fi accesat. Tehnologiile convenționale beneficiază de toate avantajele miniaturizării, dar la orizont a apărut un nou suport de memorie care provine dintr-o sursă mai puțin așteptată – ADN-ul, tehnologia de păstrare a informației a materiei vii. 215 petabytes adică 215 milioane de Gbytes de informație pot fi păstrați într-un singur gram de ADN, ceea ce ar reprezenta o capacitate de păstrare a memoriei de 10 milioane de ori mai mare decât a celor mai moderne discuri de memorie existente în prezent. În plus, acest mediu de memorare este extrem de robust, informații vechi de 700 de mii de ani fiind recuperate din oase de animale preistorice. Pentru asta trebuie însă să învățăm să ‘scriem’ folosind ‘alfabetul’ ADN, care are și avantajul că este format din ‘litere compuse’ care conțin mai mulți biți de informație. Progresele ingineriei genetice permit astăzi citirea acestui alfabet, însă tehnologiile de scriere se află în faze incipiente de cercetare și proiectare. Editarea genetică este astăzi limitată la porțiuni reduse din secvențele genomului uman. Un dispozitiv care, plecând de la o imprimantă 3D, ar fi capabil să creeze secvențe ADN în materia vie, care să înmagazineze informație la cerere, există încă doar în articolele publicate în ultimul an în revistele științifice de companii start-up și de institute academice de cercetare. Posibilitatea multiplicării programate a secvențelor ADN are și implicații etice pe care le-am discutat într-un articol precedent, acum câteva săptămâni. Este evident însă că această ramură, ca și întregul domeniu al super-calculatoarelor viitorului, începe treptat să treacă din spațiul literaturii science-fiction în cel al literaturii științifice și al actualității.
(Articolul a apărut iniţial in revista culturală ‘Literatura de Azi’ – http://literaturadeazi.ro/)