← înapoi · · linkedin

Sunt curios câți oameni realizează că discuțiile pe care le au cu un chatbot pot fi…

Sunt curios câți oameni realizează că discuțiile pe care le au cu un chatbot pot fi folosite împotriva lor în diverse anchete și procese civile sau penale. Că nu există un sistem similar obligației de confidențialitate pe care un profesionist (medic, avocat, psiholog etc) o are, în virtutea profesiei sale, din moment ce chatbot-ul respectiv nu e om, deci nu i se aplică acele obligații.

Politica de confidențialitate a datelor de la OpenAI spune, spre exemplu, că: ”este posibil să partajăm datele dumneavoastră cu caracter personal, inclusiv informații despre interacțiunea dumneavoastră cu serviciile noastre, cu autorități guvernamentale, colegi din industrie sau alte terțe părți în conformitate cu legea
(i) dacă este necesar să facem acest lucru pentru a respecta o obligație legală sau dacă considerăm cu bună-credință că o astfel de acțiune este necesară pentru a respecta o obligație legală”.

Ca o extindere a acestei discuții, ar mai fi de menționat că, din 18 august 2026 se va aplica și în România Regulamentul (UE) 2023/1543 privind ordinele europene de divulgare a probelor electronice și ordinele europene de păstrare a probelor electronice în cadrul procedurilor penale și pentru executarea pedepselor privative de libertate în urma unor proceduri penale.

Regulamentul vizează atât categoriile de date constând în date privind abonații, cât și datele privind traficul și datele referitoare la conținut. Practic, în virtutea lui, autoritățile vor putea cere de la diverși furnizori de servicii păstrarea probelor electronice și, ulterior, accesul la acestea, pentru scopurile anchetei.

Va fi interesant de văzut în ce măsură ideea de chatbot e inclusă în categoria furnizorilor ce sunt supuși acestor tipuri de ordine de păstrare.

Până atunci, întreb de curiozitate.

Postat inițial pe linkedin . Acolo sunt și sursele din care am luat informațiile, plus context util pentru cine vrea să citească mai mult despre subiect.