The trolley dilemma

Un tramvai se îndreaptă cu viteză spre un grup de cinci persoane. Undeva, între poziția tramvaiului și a potențialelor victime, se află un macaz care îi poate schimba direcția spre o altă linie, unde potențială victimă ar putea fi o singură persoană, de această dată. Dacă ați putea mânui acel macaz, ce ați face? Ați lăsa tramvaiul să meargă în continuare spre grupul de cinci persoane ori ați interveni, îndreptându-l spre omul aflat singur pe șine? Dar dacă pe fiecare linie ar fi câte o persoană, cu diferența că una dintre ele e un prieten foarte bun, iar cealaltă un necunoscut?

În teorie, această decizie se numește ”the trolley dilemma” și va fi, într-un viitor deloc îndepărtat, o verigă importantă din mai multe tipuri de legi care ar putea orienta oamenii sau mașinile spre o anumită logică de gândire.

De fapt, oamenii trăiesc alături de această dilemă de multă vreme. Într-un spital cu resurse limitate, salvezi tânărul de 15 ani, cu o boală în stadiu avansat, ori bătrânul care are o boală aparent banală, dar care implică tratament îndelungat? Atunci când există un donator de organe, alegi să salvezi fumători sau băutori înrăiți ori ”judeci” țintele după conduita lor anterioară înainte de-a le salva? Și exemplele ar putea continua. Noi, oamenii, facem astfel de alegeri de mii de ani.

Doar că, spre deosebire de trecut, acum va trebui să identificăm cu adevărat potențiale soluții, să fim de acord, ca societate, asupra lor, să le fixăm în cuvinte suficient de clare, să construim algoritmi decizionali, pornind de la ele și limite ori efecte pentru acești algoritmi, atunci când se confruntă, în viața reală, cu ”the trolley dilemma”. Greu. Pentru că algoritmii se vor confrunta cu dilema de nenumărate ori.

Într-o situație în care un copil alunecă în fața unei mașini autonome, sistemul de conducere automat ar trebui să facă o alegere rapidă. Dacă mașina frânează brusc, ar putea cauza un accident în spatele său, rănind sau chiar ucigând pasagerii din ambele vehicule. Dacă schimbă direcția pentru a evita copilul, ar putea lovi un alt obstacol sau un alt pieton, provocând alte posibile victime. Ce alege o astfel de mașină? Ce alege un asigurător să despăgubească în astfel de situații? Cum decide un judecător? Ce vor scrie ziarele?

În tot acest context, se impune o nevoie acută de discuții transparente, de reguli clare și de analize serioase ale valorilor noastre umane. În fond, atunci când ai de construit reguli care decid cine trăiește și cine moare în anumite scenarii, trebuie să-ți reconsideri comportamentul nu doar ca individ, ci și ca societate.

Căci, la urma urmei, fie că ne aflăm în fața unui macaz sau în fața unui ecran cu linii de cod, alegerea pe care o facem va reflecta cine suntem și ce dorim să fim.

The Butterfly Effect

”The Butterfly Effect” e denumirea unei teorii interesante. Imaginați-vă că un fluture bate din aripi undeva în Coreea de Sud. Lanțul de întâmplări ce se pune în mișcare odată cu acest eveniment duce, după o vreme, la nașterea unui taifun pe coastele golfului Mexic. Schimbări mici și aparent nesemnificative în condițiile inițiale ale unui sistem pot avea efecte mari și imprevizibile pe termen lung.

O companie dezvoltă o soluție inteligentă care controlează rețeaua de semafoare dintr-un oraș mare. Există, însă, o mică eroare în algoritmii săi, eroare care face ca semafoarele să se schimbe cu o fracțiune de secundă mai devreme sau mai târziu decât ar trebui. Dar e o problemă minoră și nu este observată de cineva.

Doar că, în timp, eroarea noastră începe să aibă un impact interesant. Unele automobile nu au suficient timp să oprească la culoarea roșie a semaforului, iar altele sunt oprite inutil la culoarea verde, provocând întârzieri minore. Din nou, e ceva ce mintea omenească nu poate constata ușor.

În același oraș, există un alt sistem, al unei mari companii de curierat, care controlează livrarea mărfurilor. Procesul se bazează pe timpul de livrare estimat pentru a programa rutele camioanelor de livrare. Dar, din cauza întârzierilor provocate de eroarea din sistemul de semafoare, timpul de livrare devine mai lung decât cel estimat. Nimic extraordinar.

O a treia companie folosește un sistem inteligent care controlează stocurile în magazine. Se bazează pe timpul de livrare estimat pentru a decide când să plaseze noi comenzi. Dar, din cauza întârzierilor în livrări, aceste comenzi ajung prea târziu, iar magazinele rămân fără anumite produse. La început, pare ceva neglijabil.

La nivel național, o companie folosește un sistem inteligent pentru a face predicții despre economie, bazându-se pe datele de vânzări din magazine. Dar, din cauza lipsei de stocuri, aceste vânzări scad, iar sistemul face predicții eronate, ”observând” o încetinire a economiei.

Aceste predicții sunt utilizate de bănci și fonduri de investiții pentru a lua decizii Convinse că economia este pe punctul de a intra în recesiune, unele bănci mari decid o reducere a creditării pentru companii.

Micile erori au, adesea, în ograda mică în care se întâmplă, o importanță minoră. Doar că, atunci când sisteme autonome, inteligente, ajung să lege între ele, din ce în ce mai mult, date, predicții, informații și așteptări, micile erori devin precursori ai unor crize.

Iar noi trăim într-o lume în care informațiile sunt atât de multe, complexe și imposibil de cuprins cu mintea omenească încât, la un moment dat, numai mașinile pot face ordine în haosul lor. Iar mașinile suferă de toate bolile pe care le au producătorii, educatorii sau supraveghetorii lor. De uitare, de ignoranță, de răutate și frustrare.

Atunci când vorbeam, zilele trecute, despre micile erori pe care AI-ul le va aduce în viața noastră, mă gândeam la astfel de lucruri. Și la altele, pe care le povestim în curând.

Mars Climate Orbiter

Moda știrilor despre Ai va trece în câteva luni. Da, vor apărea tehnologii noi, dar publicul va fi sătul. De atunci, cumva, o să înceapă goana după implementare. Când, intrate în conștiința publică drept o realitate, astfel de soluții vor fi imposibil de ignorat ori ocolit. Atunci vor apărea erorile.

Mars Climate Orbiter a costat 125 de mil $. A fost lansată de NASA în dec 1998 pentru a studia planeta Marte. A plecat, însă, cu software pământean la bord. Un an mai târziu, sonda dispărea în atmosfera planetei Marte. Motivul exploziei a fost unul care definește brambureala lumii moderne.

Instrumentele de la bordul sondei au fost proiectate să utilizeze sistemul metric. Cu toate acestea, o echipă de ingineri a furnizat date de navigație către NASA folosind unități imperiale. Prin urmare, traiectoria calculată pentru Mars Climate Orbiter a fost mult mai apropiată de Marte decât se intenționa, conducând la intrarea sondei în atmosfera marțiană la o altitudine prea mică. Trist.

Trăim într-o lume cu o mulțime de reguli confuze. Fahrenheit vs. Celsius, condus pe dreapta sau pe stânga, luna/zi/an vs. zi/luna/an, forme diferite pentru prize și multe altele. Asta doar la nivelul unor decizii administrative ale oamenilor, pentru că diferențele culturale sunt mult mai confuze pentru cineva din afară.

În mod tradițional, comportamentul unei soluții software este bine definit și previzibil, deoarece se bazează pe anumite instrucțiuni scrise de cineva. Dacă există o eroare, ea este adesea izolată și poate fi corectată printr-o modificare a codului. Prin contrast, chiar dacă unii continuă să creadă că noile soluții AI sunt doar ”softuri” (sau ”mofturi”), realitatea e diferită.

În cazul AI-ului, comportamentul este determinat de procesul de învățare. Cum învață un algoritm? Știm, în teorie. Însă, atunci când e vorba despre explicarea modului în care se ajunge la un anumit raționament, vorbim despre o ”cutie neagră”, de multe ori. Dacă oamenii ar ști cum raționează mașinile, atunci mașinile n-ar mai halucina. Dacă datele de antrenament ar fi mereu bune, ar fi genial. Doar că noi habar n-avem cum arată ”datele bune”. Suntem prea diferiți să avem un bine comun.

În 2013, câțiva cercetători de la Google au creat o rețea neuronală pe 3 mil cuvinte preluate din Google News. ”Oare putem înțelege contextul unui material din cuvintele care îl compun?”. Părea că găsiseră ceva atunci când, spre exemplu, la întrebarea „Paris – Franța + Tokyo : x”, sistemul răspundea cu ”x = Japonia”. Doar ani mai târziu, cineva s-a prins că, spre exemplu, la întrebarea “tată – doctor + mamă : x”, sistemul răspundea prin ”x = asistentă”.

Cred, deci, că viitorul nostru va fi decis de micile erori din soluțiile pe care guvernele sau companiile, împinse de ”dilema prizonierului” de care vorbeam zilele trecute, vor decide să le adopte ca să rămână relevante.

Despre un astfel de șir de erori vom vorbi zilele următoare. Despre ele și o chestie interesantă care se numește ”teoria haosului”.

Dilema prizonierului

Doi prizonieri sunt arestați pentru un omor pe care l-au comis împreună. Sunt izolați în camere separate și nu pot comunica unul cu celălalt. Din păcate pentru autorități, nu au suficiente probe care să ducă la condamnarea celor doi pentru omor. Au, în schimb, probe suficiente să-i condamne pentru furt.

Așa începe un experiment interesant de gândire din zona teoriei jocurilor, formulat inițial de Merrill Flood și Melvin Dresher în anii ’50. Hai să vedem continuarea.

Procurorul încearcă, totuși, să vadă în ce măsură oamenii ar fi dispuși să recunoască omorul. Merge, deci, la fiecare în parte cu o propunere: 
– dacă unul dintre ei alege să recunoască omorul și celălalt nu, cel care mărturisește va fi eliberat, în timp ce partenerul va fi închis 10 ani. 
– dacă ambii mărturisesc omorul, fiecare va primi o pedeapsă de 5 ani. 
– dacă niciunul nu mărturisește omorul, autoritățile îi vor putea condamna, totuși, la o pedeapsă mai ușoară, de doar 1 an, pentru furt.

Acum, în mintea fiecăruia dintre ei se cuibărește un sentiment cunoscut nouă, tuturor: ”neîncrederea”. ”Dacă eu mărturisesc, atunci ar exista două variante: să mărturisească și celălalt, caz în care luăm amândoi 5 ani, ori să nu mărturisească nimic, caz în care eu sunt eliberat, el merge la pușcărie 10 ani”. Ar fi o varianta bună, dar pentru omul nostru nu merită luată în calcul. ”Chiar mă pot încrede în celălalt? În joc sunt 10 ani din viața mea!”.

„Dilema” cu care se confruntă prizonierii este simplă: orice ar face celălalt, este mai bine ca fiecare să mărturisească (ori 0 ani, ori 5 ani) decât să tacă (ar putea fi 1 an, însă pot fi și 10). Dar rezultatul obținut atunci când ambii mărturisesc este mai rău pentru fiecare (5 ani) decât rezultatul pe care l-ar fi obținut dacă amândoi ar fi tăcut (1 an).

Spus pe șleau: mai bine trădezi și pierzi controlat, decât să ai încredere și să obții ceva. Un sport la modă în zilele noastre.

Există și o variantă mai complexă a dilemei prizonierului. Se cheamă ”dilema prizonierului repetată” în care jocul este jucat de mai multe ori și fiecare participant are ocazia de a „pedepsi” sau „recompensa” comportamentul celuilalt în rundele anterioare.

Ideea asta explică, într-o măsură, de ce societatea noastră e construită într-un mod care ne duce pe o traiectorie previzibilă în anii următori, în contextul în care empatia și rațiunea pură pot da acestei dileme finalități diferite.

Detaliez, zilele următoare, ideea. Și o leg și de postările anterioare.

Dacă vă plictisesc îmi dați semn, da? 🙂

FoMo

Când spui FoMo, te gândești adesea la marketing. Doar că, pentru seria de postări pe care am început-o acum câteva zile, conceptul de e mai important decât credem. Iată de ce.

Populația lumii a depășit primul miliard în 1800, spun statisticile. În 1930, ajungem la 2 miliarde, iar în 1960 la 3 miliarde. În următorii 60 de ani, am ajuns la 8. Miliarde.

Doar că, de câteva decenii încoace, ritmul de creștere s-a schimbat în unele țări, unde populația e în scădere, lucru care are o importanță socială și economică vitală pentru viitor. Știm asta, nu e nimic nou.

Așa ajungem la nevoia statelor de-a identifica soluții. Sigur, una dintre soluții este importul de forță de muncă. Se întâmplă deja, doar că și acolo există o limită pe care o presupune ”calitatea” oamenilor care sunt atrași, la distanță sau cu prezență fizică, să acopere anumite roluri. Dacă luăm cazul României, identificăm un exemplu în care se exportă mulți lucrători calificați și supra-calificați și se importă lucrători necalificați (în mare parte). În alte țări, unde populația crește exploziv, sistemul de educație e prost sau inexistent. Exportă doar forță, nu creier.

Într-un astfel de context, în curând, managerii unor companii vor avea de ales între a căuta, mereu, oameni care să acopere diferite roluri și soluții tehnologice care să înlocuiască acei oameni. Poate că nu în 6 luni sau 1 an, dar va veni o vreme în care conceptul de FoMo (“Fear Of Missing Out” – ”Frica de-a pierde, de-a fi lăsat în urmă”) va determina companiile să facă alegeri cu sabia deasupra capului.

Dacă ești o companie, un guvern ori o autoritate publică, în câțiva ani de acum înainte vei avea de ales între a implementa tot felul de soluții ”magice” și a căuta în continuare oameni, greu de găsit, pentru diferite roluri din organizația ta. Atunci când piața va migra, la început mai puțin, apoi din ce în ce mai tare spre soluțiile ”magice”, puțini decidenți vor putea rezista ritmului. Presiunea acționarilor. Frica de faliment. Frica de-a deveni inutil. Frica de-a pierde controlul.

Dacă e să investești bani în tehnologie, profiturile ar fi reinvestite, în parte, în ce? În oameni? Evident că nu. Atunci apare înlocuirea. Când nu mai elimini roluri vacante, ci oameni reali. În timp, nu deodată. Nici măcar nu mi se pare o predicție textul pe care îl scriu acum. E doar povestea unei logici simple. ”Te sui în tren sau pierzi”.

Ca efect direct al schimbărilor demografice, cred cu tărie că în zona de îngrijire și servicii medicale AI-ul va fi un jucător major nu peste multă vreme. În unele domenii, cred că vom folosi tehnologia pentru a ajuta oameni de 70, chiar 80 de ani să rămână productivi și să își poată continua viața activă cât mai multă vreme.

Ca efect indirect, însă, vom face, fără îndoială, mici greșeli în implementare. Companii, guverne, oameni. Suficient de mici încât să nu se vadă. Doar că, în timp, vor face diferența.

Cred că spre acele puncte va trebui să ne uităm cu atenție. Vorbim mâine de ce.

Ibric

”A turnat apa din ibric în cană până când s-a umplut”. Cine s-a umplut? Pentru noi, oamenii, e evident că nu ibricul, ci obiectul în care s-a turnat apa. Cumva, fără să conștientizăm cum, creierul nostru reimaginează procesul de turnare a apei din ceva în altceva și știe cu exactitate cine se golește și cine se umple în acest proces.

Mulți ani, pentru computere a fost complicat să ”gândească” astfel. Sigur, poate că puteau fi învățate să trateze acest tip de problemă în mod specific, dar ideea în sine, a înțelegerii profunde a unui text, era departe de capacitățile lor.

Apoi, cu șase ani în urmă, în 2017, pe arXiv a fost publicată o lucrare cu numele ”Attention Is All You Need”. Avea șase autori și aducea în atenția lumii, pentru prima dată, un concept care se numea ”Transformer”. La baza funcționării acestui concept stătea o abilitate definită de creatorii studiului ca fiind „self-attention”. De atunci, cana și ibricul n-au mai fost niciodată la fel pentru sistemele informatice.

Când Transformer-ul citește propoziția „A turnat apa din ibric în cană până când s-a umplut”, el utilizează abilitatea sa de „self-attention” pentru a lega cuvintele și ideile. La început, vede sintagme precum „a turnat apa” și „din ibric în cană”, deci înțelege că apa se mută din ibric în cană. Dar apoi vine partea „până când s-a umplut”. Cine sau ce s-a umplut? Ibricul sau cana?

Aici intervine abilitatea de „self-attention”. Transformer-ul nu doar că se uită la fiecare cuvânt în parte, ci și la relațiile dintre ele. El știe că în propoziția dată, „s-a umplut” se referă la acel obiect care a ”primit” ceva – în acest caz, cana.

Înainte de Transformer, existau alte modele, cum ar fi RNNs (Recurrent Neural Networks) sau LSTMs (Long Short-Term Memory). Acestea procesau informațiile într-o ordine secvențială, un cuvânt după altul, la fel cum citim noi o carte sau o propoziție. Ele păstrau o „memorie” a cuvintelor pe care le vedeau, dar uneori uitau informații importante din începutul propoziției când ajungeau la sfârșit.

În exemplul nostru, începeau prin a citi „A turnat apa”, apoi „din ibric”, apoi „în cană”, și așa mai departe. Problema e că, când ajungeau la „s-a umplut”, era posibil să uite că apa a fost turnată din ibric în cană, așa că puteau spune greșit că ibricul s-a umplut, nu cana.

Apariția Transformer a schimbat asta. În loc să proceseze cuvintele unul după altul, poate privi toată propoziția deodată și poate decide la ce anume să acorde atenție. Așa funcționează „auto-atenția”. Când ajunge la „s-a umplut”, Transformer-ul poate „vedea” în urmă că apa a fost turnată din ibric în cană, așa că poate înțelege că acea cană este cea care s-a umplut.

E util să țineți minte povestea asta, când vom discuta despre viitor.

Revoluții

”Sigur, și în alte perioade ale istoriei omenirea a trecut prin transformări. Și am supraviețuit”. E o abordare corectă, din perspectivă istorică. Doar că istoria e utilă pentru cei care o privesc de la distanță, cu detașare. Cei care o trăiesc pe pielea lor nu sunt așa relaxați. Adevărul adevărat e că, în timpul acelor transformări, oamenii au fost chinuiți și convinși că vine sfărșitul lumii.

La momentul revoluției industriale, mecanizarea a schimbat modul în care oamenii lucrau. Meșteșugarii din zilele de demult aveau satisfacția de a vedea nașterea unui produs de la început la sfârșit. Atunci când au apărut mașinile, ele au împărțit producția în multe sarcini mici, repetitive, implicând lucrătorii în sarcini punctuale. Ritmul muncii a devenit tot mai rapid. Managerii au început să impună o disciplină industrială cu un număr fix de ore, lungi și obositoare. La acel moment, în secolul transformărilor, lucrătorii trăgeau spre 300 de zile pe an, 10-12 ore 7 zile din 7, ca să țină pasul. Chin.

Zic, deci, să folosim cu prudență idei precum ”s-a mai întâmplat, dar am supraviețuit”, pentru că fiecare individ și lumea, global vorbind, sunt două lucruri diferite.

E greu de spus dacă, peste 100 de ani, istoria se va uita similar la aceste vremuri sau le va considera punctul de cotitura spre cine știe ce altă realitate. Ce cred că va remarca, însă, istoria de peste 100 de ani este că, de această dată, nu s-au înlocuit mușchii cu mașini. De data asta s-au înlocuit creierele. Mă feresc să spun ”inteligență” pentru că noi, oamenii, avem tendința de-a considera că inteligența e un atribut care ne-a fost dat să-l păstrăm doar pentru noi. Vezi discuția din postarea anterioară.

Probabilistic vorbind, unele roluri vor fi total înlocuite de tehnologie. Mai puține, însă, decât acele roluri care își vor vedea 40 – 50 – 60% din sarcini înlocuite. Și, dacă ne jucăm cu o astfel de probabilitate, hai să spunem că pentru 50% din job-urile de astăzi, cam jumătate din atribuții vor fi transferate spre tehnologie în următorii 3 – 5 ani.

Ce faci într-o astfel de situație? Dacă o companie are nevoie de jumătate din tine începând de mâine, ce faci? Cauți altă companie sau încerci să fii de două ori mai productiv? Plângi sau încerci să te reorientezi? Începând de acum, va trebui să ne obișnuim să învățăm singuri, constant, pe toată perioada vieții noastre. Învățarea autonomă va deveni din ce în ce mai importantă pe măsură ce tehnologia avansează și rolurile de muncă se schimbă.

Și-apoi, mai e ceva. Ceea ce revoluția industrială a adus în 100 de ani, revoluția prezentă va aduce în 5-10 ani. Nu e timp să creștem copii care să înțeleagă realitatea, pentru că nici noi n-o vom înțelege decât pe măsură ce se întâmplă.

Mâine, voi povesti despre 2 industrii care cred că vor beneficia major de pe urma acestor schimbări. Apoi, dacă încă mai citește cineva 😁, o să punctez, în ultima postare din serie, și câteva lucruri de făcut dacă vrem să ne pregătim pentru viitor.

Nuferi

De mulți ani, am o problemă favorită de matematică. Chiar dacă e pentru copiii de la clasele primare, spune ceva despre întârzierea cu care alegem să reacționăm la evenimentele din jurul nostru. Evident, la școală, se caută doar un răspuns corect, sec, de parcă matematica ar fi doar despre răspunsuri, nu despre perspectivele pe care le deschid ele.

”Pe un lac trăiesc o mulțime de nuferi. Ei își dublează suprafața în fiecare zi, iar în 20 de zile îl acoperă în întregime. În cât timp îl acoperă nuferii pe jumătate?”. Copiii se grăbesc întotdeauna să răspundă: ”Jumătate? / În 10 zile!”. În realitate, nuferii vor acoperi jumătate din suprafața lacului în 19 zile. Apoi, în ziua 20, lacul e acoperit în întregime.

Până în ziua 15, lacul va fi acoperit sub 1%. Din acea zi, totul se schimbă. În doar 5 zile, ajungem de la 1% la 100%.

Vă povesteam ieri despre ferma de grippers, mâinile robotice care apucau mingi de pluș. Dar putem vorbi despre nenumărate forme ale prezenței noilor tehnologii inteligente în viața noastră. Astăzi, majoritatea sunt, în ochii publicului larg, niște prostii ajunse la modă. ”Halucinează”, ”Nu știu nici măcar să rezolve probleme simple de logică”, ”Uite cum se clatină când merge”, ”Traducerile sunt proaste” etc.

Uităm, însă, că aceste sisteme învață singure. Întocmai ca acele mâini robotice. Bonus, AI-ul AlphaDev, de la Google, tocmai ce-a dezvoltat un nou algoritm de sortare.

Și apoi, mai uităm ceva. Noi nu suntem perfecți. Mințim. Batem câmpii. De câte ori avem încredere în oamenii din jur? De câte ori e nevoie să verificăm documente pentru că nu avem încredere în munca altora?

Eka Roivainen e psiholog clinicianși evaluează abilitățile cognitive ale pacienților umani folosind teste de inteligență standardizate. În martie 2023, a supus ChatGPT unui test IQ. Rezultatul: IQ-ul verbal al ChatGPT a fost de 155, superior a 99,9% dintre cei care fac testul care alcătuiesc eșantionul american de standardizare WAIS III. Cred, fără să am probe, că a testat versiunea GPT4.

Alte teste, din trecut, plasau versiunea GPT3 spre 70 – 80. Problema cu nuferii ne oferă o potențială evoluție a IQ-ului, în acest caz. Dacă GPT 3 are 75 și GPT 4 are 150, atunci GPT 5 ar fi la 300, GPT 6 spre 600, iar de la GPT 7 încolo…

Evident, inteligența unui AI nu poate fi măsurată cu instrumentele oamenilor.

Totuși, într-o lume în care roboții, modelele de limbaj, ”ajutoarele noastre”, așa cum le definim astăzi, vor fi mult, mult mai inteligente decât noi, lumea ar mai putea fi la fel? De câți profesori va fi nevoie să educe sutele de elevi dintr-o școală? De câți lucrători va avea nevoie o corporație care oferă servicii livrate digital?

Așa arată schimbarea din următorii 10 ani, despre care vorbeam ieri. Și mâine o să vorbim despre punctele bune ale schimbării și căderile pe care le va aduce ea. Nu e apocalipsa. E doar altă lume.

Altfel, da, aș zice că 2023 e precum ziua 15 din problema cu nuferii. Tocmai au depășit 1%. Aveți altă părere?

Grippers

Cu ani în urmă, o companie celebră a instalat, la etajul doi al sediului său, o fermă de grippers. Un ”gripper” e o mână robotică menită să învețe singură să apuce obiectele de pluș aflate într-un coș în fața ei. Au trecut multe zile, iar echipa ajunsese la capătul răbdării. Într-o vineri după amiază, însă, unul dintre brațe a reușit să apuce p minge galbenă de pluș. Gluma zilei: oau, au cheltuit zeci de milioane de dolari pentru o minge galbenă de pluș. Doar că, în scurtă vreme, nimeni nu mai râdea. Până luni, toate celelalte mâini știau să apuce mingea galbenă de pluș. Două săptămâni mai târziu, știau să apuce toate celelalte mingi.

E povestea unuia dintre proiectele Google [X], divizia de inovație de la Google. Și e spusă de Mo Gawdat, fost Chief Business Officer al companiei.

Probabil că, deși nu vrem să recunoaștem asta, ne învățăm copiii la fel să facă lucruri. ”Uite un coș cu forme geometrice, acolo sunt niște găuri cu diferite contururi geometrice, prinde-te singur(ă) care formă se potrivește cu un anume contur”. Sigur, sunt și momente în care copiii primesc instrucțiuni de la noi despre cum să facă un lucru sau altul, dar învață singuri, ulterior, cum e mai bine să procedeze.

Pornind de la acest concept, mi-am propus să scriu, în perioada următoare, o serie de 3 postări care să explice de ce cred eu că schimbările care vor afecta lumea în următorii 10 ani vor fi dramatice, atât de dramatice încât vom trăi, în 2035, într-o realitate total diferită de cea de astăzi. Și social, și uman și din multe alte puncte de vedere.

M-am gândit să încep șirul de comentarii cu un paradox.

”Ce prost!”, zice un peste care privește un om ce încearcă să se miște sub apă. ”Ce prost!”, zice un elefant despre omul ce încearcă să împingă un copac greu prăbușit pe stradă. ”Ziceți că-i inteligent, dar e prost de bubuie!”, se gândește o furnică în timp ce privește un om ce vrea să ridice deasupra capului o greutate mai mare decât a corpului său.

Natura e plină de astfel de afirmații. Deloc utile, evident, din moment ce prostia e un lucru ce trebuie aplicat contextual, în funcție de multe-multe condiții specifice ale unui experiment. Altfel, vorba lui Einstein, dacă judecăm un pește după abilitatea lui de-a se sui într-un copac, va trăi toată viața cu sentimentul că e prost.

Judecăm, adesea, inteligența altor specii după mintea și experiența noastră. Implicit, le atribuim prostia de care noi dăm dovadă. Doar că lumea nu e doar universul uman, cum nu e doar universul delfinilor ori al maimuțelor urlătoare.

Artificiale prin natura lor, setul de cunoștințe, legături, conexiuni neexplicabile ori axiome ce mișcă acele mâini robotice, formează creierul neuronal al ChatGPT sau bântuie circuitele lui Spot, robotul cățel de la Boston Dynamics, n-au nicio legătură cu conceptul de inteligență, prostie, moarte, viață.

O să povestim mâine de ce cred că aceasta idee e fundamentală pentru înțelegerea transformărilor pe care le va urma viața noastră în următorii 10 ani.

Podcastul Legile Tehnologiei

În fiecare săptămână discut, alături de Adriana Radu, unele dintre cele mai importante noutăți ale ultimelor zile. Analizăm impactul lor și explicăm strategia juridică, strategică sau de afaceri din spatele acestor știri, precum și consecințele lor pentru perioada următoare. Vă mulțumim pentru că ne urmăriți săptămânal. 

Urmărește-ne pe platformele de podcasting ori ascultă mai jos:

https://anchor.fm/s/2992d410/podcast/rss