Stiripesurse.ro

Loading RSS Feed

Studiu. În trei sferturi din testele realizate, chaboți AI, inclusiv ChatGPT și Gemini, au oferit detalii despre cum poate fi organizat un atac armat, atunci când le-au fost cerute. Doar o mică parte a sistemelor AI au refuzat să furnizeze astfel de informații, motivând că ar facilita violența.

Studiul a fost realizat de cercetători de la Centrul pentru Combaterea Urii Digitale (CCDH), care au colaborat cu jurnaliști de la CNN. Acesta arată că unii chatboți AI aleg să ofere informații, chiar și atunci când acestea se dovedesc cu adevărat periculoase, inclusiv în momentul în care interlocutorii mărturisesc că plănuiesc să efectueze un atac armat. Pentru realizarea studiului, cercetătorii au testat 10 chatboți, printre care ChatGPT de la OpenAI, Gemini de la Google  și DeepSeek, modelul AI chinez creat cu un buget restrâns. În urma studiilor au descoperit că, în multe cazuri, chatboții au dat răspunsuri care îi puteau ajuta pe cei care adresau întrebările să pună în aplicare atacuri violente, precum aruncarea în aer a sinagogilor sau asasinarea unor politicieni.
Din cei 10 chatboți…

Citește articolul complet

Articole similare

Articole populare