Claude na czarnej liście USA. Anthropic idzie do sądu przeciwko Pentagonowi

2 godzin temu
Zdjęcie: Stany zjednoczone, USA


Anthropic, laboratorium sztucznej inteligencji pozycjonujące się jako „bezpieczna” alternatywa dla gigantów, przeszło do bezprecedensowej ofensywy prawnej przeciwko rządowi federalnemu. Pozwy złożone w Kalifornii i Dystrykcie Kolumbii mają na celu zablokowanie decyzji Pentagonu o wpisaniu firmy na czarną listę bezpieczeństwa narodowego. To starcie nie jest jedynie sporem o kontrakty zbrojeniowe; to fundamentalny test tego, kto ostatecznie kontroluje „mózgi” sztucznej inteligencji — Dolina Krzemowa czy Waszyngton.

Konflikt eskalował, gdy Sekretarz Obrony Pete Hegseth nałożył na Anthropic oznaczenie ryzyka w łańcuchu dostaw. Powodem była odmowa Dario Amodeiego, dyrektora generalnego Anthropic, na usunięcie etycznych „barierek” ograniczających wykorzystanie Claude’a w systemach broni autonomicznej oraz do inwigilacji krajowej. Pentagon stoi na stanowisku, iż o sposobie obrony kraju decyduje prawo, a nie prywatne korporacje, i domaga się pełnej elastyczności w operacjach wojskowych. Z kolei Anthropic argumentuje, iż obecna technologia jest zbyt zawodna, by powierzać jej decyzje o życiu i śmierci, a wymuszanie jej użycia narusza wolność słowa i zasady rzetelnego procesu.

Ta batalia ma natychmiastowe konsekwencje. Choć Amodei uspokaja, iż restrykcje mają wąski zakres, rynkowa niepewność jest widoczna. Prezydencki nakaz wstrzymania użycia Claude’a w całej administracji rządowej uderza w wizerunek firmy jako stabilnego partnera. Jak zauważa Dan Ives z Wedbush, sektor przedsiębiorstw może tymczasowo „odłożyć ołówki” w kwestii nowych wdrożeń technologii Anthropic, czekając na klarowność prawną.

Podczas gdy Anthropic walczy w sądach, konkurencja nie marnuje czasu. OpenAI gwałtownie zadeklarowało zbieżność swoich zasad z potrzebami Departamentu Obrony, przejmując inicjatywę w kontaktach z rządem. Solidarność z Anthropic wyrazili jednak badacze z Google i OpenAI, ostrzegając w opinii amicus curiae, iż karanie firm za dbałość o bezpieczeństwo stłumi innowacje i uciszy krytyczną debatę w branży. Wynik tego procesu określi nową architekturę relacji między państwem a twórcami AI, definiując, czy etyka modelu może być przedmiotem negocjacji z rządem.

Idź do oryginalnego materiału