by

Mars Climate Orbiter

Moda știrilor despre Ai va trece în câteva luni. Da, vor apărea tehnologii noi, dar publicul va fi sătul. De atunci, cumva, o să înceapă goana după implementare. Când, intrate în conștiința publică drept o realitate, astfel de soluții vor fi imposibil de ignorat ori ocolit. Atunci vor apărea erorile.

Mars Climate Orbiter a costat 125 de mil $. A fost lansată de NASA în dec 1998 pentru a studia planeta Marte. A plecat, însă, cu software pământean la bord. Un an mai târziu, sonda dispărea în atmosfera planetei Marte. Motivul exploziei a fost unul care definește brambureala lumii moderne.

Instrumentele de la bordul sondei au fost proiectate să utilizeze sistemul metric. Cu toate acestea, o echipă de ingineri a furnizat date de navigație către NASA folosind unități imperiale. Prin urmare, traiectoria calculată pentru Mars Climate Orbiter a fost mult mai apropiată de Marte decât se intenționa, conducând la intrarea sondei în atmosfera marțiană la o altitudine prea mică. Trist.

Trăim într-o lume cu o mulțime de reguli confuze. Fahrenheit vs. Celsius, condus pe dreapta sau pe stânga, luna/zi/an vs. zi/luna/an, forme diferite pentru prize și multe altele. Asta doar la nivelul unor decizii administrative ale oamenilor, pentru că diferențele culturale sunt mult mai confuze pentru cineva din afară.

În mod tradițional, comportamentul unei soluții software este bine definit și previzibil, deoarece se bazează pe anumite instrucțiuni scrise de cineva. Dacă există o eroare, ea este adesea izolată și poate fi corectată printr-o modificare a codului. Prin contrast, chiar dacă unii continuă să creadă că noile soluții AI sunt doar ”softuri” (sau ”mofturi”), realitatea e diferită.

În cazul AI-ului, comportamentul este determinat de procesul de învățare. Cum învață un algoritm? Știm, în teorie. Însă, atunci când e vorba despre explicarea modului în care se ajunge la un anumit raționament, vorbim despre o ”cutie neagră”, de multe ori. Dacă oamenii ar ști cum raționează mașinile, atunci mașinile n-ar mai halucina. Dacă datele de antrenament ar fi mereu bune, ar fi genial. Doar că noi habar n-avem cum arată ”datele bune”. Suntem prea diferiți să avem un bine comun.

În 2013, câțiva cercetători de la Google au creat o rețea neuronală pe 3 mil cuvinte preluate din Google News. ”Oare putem înțelege contextul unui material din cuvintele care îl compun?”. Părea că găsiseră ceva atunci când, spre exemplu, la întrebarea „Paris – Franța + Tokyo : x”, sistemul răspundea cu ”x = Japonia”. Doar ani mai târziu, cineva s-a prins că, spre exemplu, la întrebarea “tată – doctor + mamă : x”, sistemul răspundea prin ”x = asistentă”.

Cred, deci, că viitorul nostru va fi decis de micile erori din soluțiile pe care guvernele sau companiile, împinse de ”dilema prizonierului” de care vorbeam zilele trecute, vor decide să le adopte ca să rămână relevante.

Despre un astfel de șir de erori vom vorbi zilele următoare. Despre ele și o chestie interesantă care se numește ”teoria haosului”.

Lasă un comentariu

Comment