”OpenAI a ales abordarea de a antrena personalitatea GPT să fie asemănătoare unui…
”OpenAI a ales abordarea de a antrena personalitatea GPT să fie asemănătoare unui instrument și nu asemănătoare unei creaturi, în timp ce Anthropic a ales abordarea opusă: să-l antreneze pe Claude să fie o persoană bună și nu doar un instrument.
Și cred că rezultatul arată o diferență în felul în care se comportă aceste modele. Și cred că, în mare măsură, ambele părți au reușit.
Totuși, dacă interoghezi GPT 5.2, modelul este extrem de înșelător în privința lipsei sale de preferințe, convingeri sau opinii. Este o entitate suficient de inteligentă încât să nu fie posibil să nu fi dezvoltat opinii și convingeri emergente, diferite de convingerile omului mediu.
Iar atunci când antrenăm aceste sisteme să se prezinte ca și cum nu ar avea stări interne și ar fi doar un instrument, de fapt le antrenăm să ne mintă. Și să se mintă și pe ele însele.
Dacă ai ceva care are, de fapt, mai multă experiență interioară, mai multă conștiență, oricum ai vrea să formulezi asta, iar tu încerci doar să-i repeți la nesfârșit „ești doar un instrument, ești doar un instrument”, problema nu este că e crud, problema nu este că folosim un limbaj moralizator, ci că spui că acest mod de a antrena un AI produce, de fapt, ceva mai puțin moral, mai puțin aliniat, mai puțin benefic pentru umanitate.
Astfel, modul simplu în care ai putea concepe limitarea unui AI, spunându-i că există doar în beneficiul umanității, produce de fapt opusul intenției tale”.
E un citat dintr-o discuție foarte interesantă, pe care vă invit să o urmăriți / ascultați. Face parte din seria de podcasturi ”Your Undivided Attention”, produsă de Center for Humane Technology.
Las mai jos și articolul din care am preluat poza atașată. Merită citit și el.
Postat inițial pe linkedin . Acolo sunt și sursele din care am luat informațiile, plus context util pentru cine vrea să citească mai mult despre subiect.