W relacjach między Doliną Krzemową a Pentagonem nastąpiło gwałtowne ochłodzenie, które może przedefiniować model biznesowy czołowych laboratoriów sztucznej inteligencji. Administracja Trumpa, dążąc do pełnej swobody operacyjnej w wykorzystaniu nowych technologii, wprowadza rygorystyczne wytyczne, które stawiają pod znakiem zapytania autonomię firm takich jak Anthropic.
Decyzja Administracji Usług Ogólnych o rozwiązaniu kontraktów z Anthropic i określenie spółki mianem „ryzyka dla łańcucha dostaw” to sygnał, iż rząd nie będzie tolerował kompromisów w kwestii kontroli nad narzędziami AI. Punktem zapalnym okazały się wbudowane w modele mechanizmy bezpieczeństwa, które zdaniem Departamentu Obrony paraliżują ich użyteczność militarną i cywilną.
Kluczowym elementem nowej strategii jest wymóg udzielenia rządowi USA nieodwołalnej licencji na korzystanie z systemów AI do „każdego zgodnego z prawem celu”. Nowe wytyczne GSA idą dalej, uderzając w samą strukturę algorytmów. Firmy starające się o kontrakty federalne nie mogą „celowo kodować ideologicznych osądów” w wynikach generowanych przez systemy. To bezpośrednie uderzenie w mechanizmy filtrowania treści, które administracja postrzega jako formę cenzury lub stronniczości.
Obecna sytuacja tworzy wyrazisty podział na rynku. Firmy, które postawią na pełną elastyczność i „neutralność” wymaganą przez Waszyngton, zyskają uprzywilejowany dostęp do sektora publicznego. Pozostałe, kładące nacisk na restrykcyjne bariery bezpieczeństwa, mogą zostać wypchnięte z najważniejszego rynku zamówień na świecie, co drastycznie zmieni ich wyceny i perspektywy wzrostu.

3 godzin temu














