
Seorang hakim federal di San Francisco mengabulkan permohonan Anthropic untuk perintah awal dalam gugatan terhadap pemerintahan Trump.
Hakim Rita Lin mengeluarkan keputusan tersebut pada hari Kamis, dua hari setelah pengacara untuk perusahaan kecerdasan buatan dan pemerintah AS hadir di pengadilan untuk sidang. Anthropic menggugat pemerintahan untuk mencoba membatalkan daftar hitam oleh Pentagon dan arahan Presiden Donald Trump yang melarang agensi federal menggunakan model Claude.
Anthropic mengajukan perintah tersebut untuk menghentikan tindakan-tindakan itu dan mencegah lebih banyak kerugian finansial dan reputasi saat kasus ini berlangsung.
Anthropic mengeluarkan pernyataan berikut mengenai keputusan tersebut, “Kami berterima kasih kepada pengadilan karena bertindak cepat, dan senang mereka setuju bahwa Anthropic kemungkinan akan berhasil dalam hal ini. Meskipun kasus ini diperlukan untuk melindungi Anthropic, pelanggan kami, dan mitra kami, fokus kami tetap pada bekerja secara produktif dengan pemerintah untuk memastikan semua warga Amerika mendapat manfaat dari AI yang aman dan dapat diandalkan.”
“Menghukum Anthropic karena membawa pengawasan publik terhadap posisi kontrak pemerintah adalah pembalasan anti-konstitusi yang klasik,” tulis Hakim Lin dalam perintah tersebut. Vonis akhir dalam kasus ini mungkin masih berbulan-bulan lagi.
Selama sidang pada hari Selasa, Lin menekan pengacara pemerintah tentang mengapa Anthropic dimasukkan dalam daftar hitam. Bahasanya dalam perintah tersebut bahkan lebih tajam.
“Tidak ada dalam undang-undang yang mengatur yang mendukung gagasan Orwellian bahwa perusahaan Amerika dapat diberi cap sebagai musuh dan pengacau potensial bagi AS karena menyatakan ketidaksetujuan dengan pemerintah,” tulisnya.
Gugatan Anthropic mengikuti beberapa minggu dramatis di Washington D.C., antara Departemen Pertahanan dan salah satu perusahaan swasta paling berharga di dunia.
Dalam sebuah posting di X akhir Februari, Menteri Pertahanan Pete Hegseth menyatakan Anthropic sebagai risiko rantai pasokan, yang berarti bahwa penggunaan teknologi perusahaan tersebut diduga mengancam keamanan nasional AS. DOD secara resmi memberitahukan Anthropic tentang penunjukan tersebut dalam surat awal bulan ini.
Anthropic adalah perusahaan Amerika pertama yang secara publik disebut sebagai risiko rantai pasokan, karena penunjukan tersebut secara historis hanya diperuntukkan bagi musuh asing. Label tersebut mengharuskan kontraktor Pertahanan, termasuk Amazon, Microsoft, dan Palantir, untuk memastikan bahwa mereka tidak menggunakan Claude dalam pekerjaan mereka dengan militer.
Pemerintahan Trump mengandalkan dua penunjukan yang berbeda – 10 U.S.C. § 3252 dan 41 U.S.C. § 4713 – untuk membenarkan tindakan tersebut, dan mereka harus ditantang di dua pengadilan terpisah. Karena itu, Anthropic telah mengajukan gugatan lain untuk tinjauan resmi mengenai penentuan Departemen Pertahanan di Pengadilan Banding AS di Washington.
Sebelum Hegseth menyatakan Anthropic sebagai risiko rantai pasokan, Presiden Donald Trump menulis sebuah posting di Truth Social memerintahkan agensi federal untuk “segera menghentikan” semua penggunaan teknologi Anthropic. Dia mengatakan akan ada periode penghapusan selama enam bulan untuk agensi seperti DOD.
“KITA yang akan memutuskan nasib Negara kita — BUKAN perusahaan AI Kiri Radikal yang tidak terkendali yang dijalankan oleh orang-orang yang tidak tahu apa itu dunia nyata,” tulis Trump.
Tindakan pemerintahan Trump mengejutkan banyak pejabat di Washington yang telah mulai mengagumi dan mengandalkan teknologi Anthropic. Perusahaan tersebut adalah yang pertama menerapkan model-modelnya di jaringan rahasia DOD, dan dipuji karena kemampuannya untuk berintegrasi dengan kontraktor Pertahanan yang ada seperti Palantir.
Anthropic menandatangani kontrak senilai $200 juta dengan Pentagon pada bulan Juli, tetapi ketika perusahaan tersebut mulai merundingkan penerapan Claude di platform AI DOD GenAI.mil pada bulan September, pembicaraan terhenti.
DOD ingin Anthropic memberikan akses tanpa batas kepada Pentagon ke model-modelnya untuk semua tujuan yang sah, sementara Anthropic menginginkan jaminan bahwa teknologinya tidak akan digunakan untuk senjata otonom penuh atau pengawasan massal domestik.
Kedua pihak gagal mencapai kesepakatan, dan sekarang, perselisihan ini akan diselesaikan di pengadilan.
“Semua orang, termasuk Anthropic, setuju bahwa Departemen [Pertahanan] bebas untuk berhenti menggunakan Claude dan mencari vendor AI yang lebih permisif,” kata Lin selama sidang pada hari Selasa. “Saya tidak melihat itu sebagai inti dari perkara ini. Saya melihat pertanyaan dalam kasus ini sebagai hal yang sangat berbeda, yaitu apakah pemerintah melanggar hukum.
