← înapoi · · linkedin

Un studiu publicat în 13 aprilie 2026 spune că modelele AI de top (testele se raportează…

Un studiu publicat în 13 aprilie 2026 spune că modelele AI de top (testele se raportează la 2025) eșuează în diagnosticarea diferențială precoce în peste 80% cazuri. Există, însă, o cheie în care trebuie citit acest studiu, una care ne spune ceva despre noi, mai mult decât spune despre modelele AI pe care le folosim.

// Mai întâi, puțin context
O vinietă clinică standardizată e un caz construit pas cu pas, în care știi lucruri despre pacient, istoricul lui, simptomele pe care le are, îi poți face examen fizic, analize și teste de imagistică medicală.

Diagnosticul diferențial e lista ipotezelor care trebuie ținute deschise după prima evaluare, înainte de confirmări. Practic, după ce analizezi vinieta clinică de mai sus, ajungi la concluzia că diagnosticul final ar putea fi X, Y sau Z, dar cercetezi ca să te prinzi care dintre ele e cel corect.

Diagnosticul final e concluzia pusă după ce testele au eliminat restul ipotezelor. Practic, dacă la diagnosticul diferențial îți asumi un proces de gândire pe care îl menții viu câtă vreme faci diferențierea, în cazul diagnosticului final dai un răspuns și atât. Mă rog, simplist vorbind e toată ideea asta.

// Studiul
Au fost testate 21 de modele avansate la nivelul anului 2025 (de la Grok 4 și GPT-5 la Claude 4.5 și Gemini 3.0 Pro) pe 29 de astfel de viniete, cu peste 16.000 de răspunsuri cărora le-au fost atribuite note de studenți la medicină.

În urma studiului, paradoxul cel mai interesant e că rata de eșec la diagnosticul diferențial a depășit 80% la toate modelele, în timp ce la diagnosticul final rata de eșec a coborât sub 40%. Cumva, exact invers față de cum ar gândi un medic real, care ar greși, poate, la identificarea unor versiuni de diagnostic diferențial, dar le-ar rafina și le-ar rafina până, spre final, când diagnosticul ar putea fi unul mai bun.

Toată ideea asta pleacă de la o realitate oarecum simplă. Modelele AI sunt bune să dea răspunsuri, nu să raționeze. Se închid prematur în procesul de analiză, apoi converg rapid spre certitudine chiar și atunci când incertitudinea era informația utilă. Inclusiv cele optimizate pentru raționament au avut, în studiu, câștiguri modeste în prima zonă.

// Despre noi
Când folosim un model AI, de la analize di verse până la evaluări de risc, ne-am obișnuit să cerem direct concluzia. Ipotezele pe care le-au eliminat pe parcurs nu ne mai interesează. Și, când nu ne convine, tratăm concluzia ca fiind similară cu procedul de gândire în sine.

Cu toate astea, însă, nu cred că e ok ca furnizori diverși să ne vândă toate aceste modele, știind ce probleme au, pe post de medici digitali. Și nu e ok să o facă, în timp ce spun în termenii și condițiile de furnizare a serviciilor că le folosim pe riscul nostru.

Despre toate aceste lucruri și multe altele, vorbim sâmbătă, de la 10 dimineața, la I Like IT de la ProTV.

Postat inițial pe linkedin . Acolo sunt și sursele din care am luat informațiile, plus context util pentru cine vrea să citească mai mult despre subiect.