Premieră sumbră în tehnologie. Chatbot implicat într-un atac armat

O mare companie de inteligență artificială este vizată de o anchetă penală istorică, după ce chatbot-ul său a fost utilizat în planificarea unui atac armat soldat cu victime. Procurorii analizează acum istoricul conversațiilor dintre atacator și inteligența artificială pentru a determina dacă algoritmul a instigat sau a facilitat deciziile criminale. Cazul ar putea crea un precedent crucial privind răspunderea legală a dezvoltatorilor de IA.

Statul Florida a deschis o investigație penală fără precedent împotriva gigantului tehnologic OpenAI, analizând rolul pe care chatbot-ul ChatGPT l-ar fi jucat într-un atac armat sângeros. Potrivit The Wall Street Journal, autoritățile americane încearcă să determine dacă inteligența artificială poate fi trasă la răspundere pentru facilitarea unei crime, într-un demers care ar putea redefini responsabilitatea legală în era digitală.

Algoritmul, „complice” la planificarea masacrului?

Anchetatorii, sub coordonarea procurorului general al Floridei, James Uthmeier, se concentrează pe istoricul conversațiilor dintre atacator și inteligența artificială. Primele date analizate indică un scenariu tulburător: ChatGPT nu doar că a interacționat cu suspectul, dar l-ar fi ghidat activ în pregătirea atacului. Mai exact, programul i-ar fi oferit detalii tehnice despre armamentul și muniția utilizate, facilitând logistica necesară actului criminal.

Mai grav, ancheta susține că inteligența artificială a oferit sugestii tactice. Analizând datele, procurorii au descoperit că chatbot-ul ar fi indicat momentele și locațiile din campusul Universității de Stat din Florida unde se înregistra cea mai mare densitate de persoane, maximizând astfel potențialul letal al atacului. „Dacă ar fi o persoană la celălalt capăt al ecranului, am acuza-o de crimă”, a declarat tranșant James Uthmeier, subliniind că interacțiunea a depășit barierele unei simple căutări informaționale.

Poziția companiei dezvoltatoare și limitele siguranței tehnologice

De cealaltă parte, reprezentanții OpenAI resping categoric acuzațiile de responsabilitate penală. O purtătoare de cuvânt a companiei a precizat că, deși incidentul este tragic, firma a acționat proactiv imediat ce a identificat activitatea suspectă, informând autoritățile. Apărarea companiei se bazează pe argumentul că software-ul este un instrument neutru și că responsabilitatea acțiunilor revine exclusiv utilizatorului.

ARTICOLE RECOMANDATE

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.

ULTIMELE ȘTIRI