Compania americană de inteligență artificială Anthropic a transmis că “nu poate, în mod conștient”, să respecte cererea Pentagonului de a elimina măsurile de siguranță din modelul său de AI, Claude, și să acorde armatei americane acces nelimitat la capabilitățile sale. Explică faptul că eliminarea barierelor ar permite utilizarea Claude pentru supravegherea internă în masă sau în sisteme de arme autonome, iar o astfel de situație ar putea duce la uciderea oamenilor fără vreo intervenție umană.
“Utilizarea acestor sisteme pentru supraveghere internă în masă este incompatibilă cu valorile democratice”, a declarat directorul executiv Dario Amodei, care a adăugat că sistemele de inteligență artificială nu sunt încă suficient de fiabile pentru a fi utilizate în alimentarea armelor mortale fără …

