Stiripesurse.ro

Loading RSS Feed

Anthropic refuză să ofere Pentagonului acces nelimitat la modelul său lingvistic, Claude, în ciuda amenințărilor secretarului american al Apărării de a întrerupe contractul cu compania din domeniul AI. Argumentează că o astfel de permisiune riscă să ducă la uciderea oamenilor fără vreun fel de control.

Compania americană de inteligență artificială Anthropic a transmis că “nu poate, în mod conștient”, să respecte cererea Pentagonului de a elimina măsurile de siguranță din modelul său de AI, Claude, și să acorde armatei americane acces nelimitat la capabilitățile sale. Explică faptul că eliminarea barierelor ar permite utilizarea Claude pentru supravegherea internă în masă sau în sisteme de arme autonome, iar o astfel de situație ar putea duce la uciderea oamenilor fără vreo intervenție umană.
“Utilizarea acestor sisteme pentru supraveghere internă în masă este incompatibilă cu valorile democratice”, a declarat directorul executiv Dario Amodei, care a adăugat că sistemele de inteligență artificială nu sunt încă suficient de fiabile pentru a fi utilizate în alimentarea armelor mortale fără …

Citește articolul complet

Articole similare

Articole populare