ماشه پنتاگون روی سر آنتروپیک

آن‌گونه که فارن‌افرز نوشته است، این قرارداد نشان‌دهنده رویکرد فزاینده شرکت برای گسترش حضور در حوزه امنیت ملی بود؛ حرکتی که هم‌زمان با آماده‌سازی آنتروپیک برای عرضه عمومی سهام و جذب بازارهای مرتبط با دفاع و امنیت دنبال می‌شد. مدیران شرکت با خوش‌بینی از این همکاری یاد کردند و اعلام داشتند که این توافق فصل تازه‌ای را در مسیر رشد و توسعه شرکت رقم می‌زند.

با این حال خیلی زود اختلاف‌نظرهایی درباره نحوه استفاده آتی ارتش از سامانه‌های آنتروپیک پدیدار شد. مدیران این شرکت به‌تدریج نگران آن شدند که این فناوری در نهایت برای انجام عملیات‌های کاملا خودمختار و مرگبار به کار گرفته شود. در مقابل پنتاگون واکنش نشان داد و استدلال کرد که تصمیم‌گیری درباره نحوه استفاده از این مدل‌ها در صلاحیت آنتروپیک نیست و مانند هر فناوری دیگری که دولت خریداری می‌کند باید به خود ارتش واگذار شود.

موضع آنتروپیک در این زمینه با رویکرد شرکت‌های دیگری مانند گوگل، xAI متعلق به ایلان ماسک و اوپن‌ای‌آی متفاوت بود؛ شرکت‌هایی که به‌صورت اصولی پذیرفته بودند مدل‌هایشان برای هر منظوری که قانون اجازه می‌دهد مورد استفاده قرار گیرد. در مقابل، آنتروپیک برند خود را بر محور ترویج ایمنی هوش مصنوعی بنا کرده و همواره بر خطوط قرمزی تاکید داشته که به گفته خود حاضر به عبور از آنها نیست. دستورالعمل‌های استفاده این شرکت شامل محدودیت‌های سخت‌گیرانه‌ای است که به‌طور صریح، به‌کارگیری کلاود در تسهیل خشونت، توسعه یا طراحی سلاح یا انجام نظارت گسترده و انبوه را ممنوع می‌کند. پس از ماه‌ها تنش اوضاع در ماه ژانویه به نقطه جوش رسید. در پی عملیات ارتش ایالات‌متحده برای بازداشت مادورو، رئیس‌جمهور پیشین ونزوئلا، یکی از کارکنان آنتروپیک نگرانی‌هایی را با Palantir درباره نحوه استفاده از مدل کلاود در این عملیات مطرح کرد. پلتفرم Palantir زیرساختی‌ را فراهم می‌کند که مدل آنتروپیک بر بستر آن یکپارچه‌سازی می‌شود. 

Palantir در ادامه با پنتاگون تماس گرفت و ابراز نگرانی کرد که ممکن است آنتروپیک با به‌کارگیری فناوری‌اش در ماموریت‌های مشابه آینده موافق نباشد. این موضوع به اطلاع وزیر دفاع، هگست، رسید و او با خشم واکنش نشان داد.

چند روز بعد هگست یادداشتی صادر کرد که در آن از شرکت‌های هوش مصنوعی خواسته شده بود محدودیت‌های اعمال‌شده بر فناوری‌های خود را حذف کنند. این یادداشت آنتروپیک را وادار کرد تا برای بازنگری در مفاد قرارداد وارد مذاکره شود؛ مدیران شرکت از پنتاگون خواستند استفاده از ابزارهای هوش مصنوعی این شرکت با قیود مشخصی همراه شود. این اقدام با واکنش منفی شدیدتری از سوی پنتاگون روبه‌رو شد. رسانه آکسیوس گزارش داد که هگست نزدیک به قطع همکاری با آنتروپیک بوده و حتی بررسی کرده است که این شرکت را به‌عنوان ریسک زنجیره تامین معرفی کند؛ برچسبی که معمولا برای دشمنان خارجی در نظر گرفته می‌شود. چنین تصمیمی به این معنا بود که هر شرکتی برای همکاری با ارتش باید ارتباط خود را با آنتروپیک قطع کند. هگست در یک سخنرانی‌ در تگزاس تصریح کرد: «ما از مدل‌های هوش مصنوعی‌ استفاده نخواهیم کرد که اجازه جنگیدن به شما ندهند.»

با توجه به این شرایط واکنش سخت‌گیرانه دولت ترامپ چندان دور از انتظار نبود. از همان ابتدا مشاوران ارشد کاخ سفید نسبت به آنتروپیک بدبین بودند. ماه‌ها پیش از این تزار هوش مصنوعی کاخ سفید، دیوید ساکس، به‌طور علنی این شرکت را هدف قرار داد و آن را متهم کرد که در پی پیشبرد دستورکاری است.

در سپتامبر سال گذشته آنتروپیک با رد درخواست نهادهای فدرال اجرای قانون برای استفاده از ابزارهای هوش مصنوعی‌اش در پایش شهروندان آمریکایی، خشم مقام‌های دولت ترامپ را برانگیخت. در واکنش یکی از مقامات دولتی موضع آنتروپیک را معادل صدور داوری اخلاقی درباره نحوه انجام وظایف نهادهای مجری قانون توصیف کرد.

اکنون گزارش‌ها حاکی از آن است که وزیر دفاع، هگست، به آنتروپیک تا عصر جمعه مهلت داده است تا دسترسی بدون قیدوشرط پنتاگون به مدل هوش مصنوعی خود را بپذیرد؛ در غیر این صورت با مجازات‌های سنگین مواجه خواهد شد. هگست هم‌زمان تهدید کرده است که یا با استناد به قانون تولید دفاعی آنتروپیک را وادار به در اختیار گذاشتن کلاود برای ارتش کند یا این شرکت را ریسک زنجیره تامین اعلام کند؛ اقدامی که عملا استفاده پنتاگون از محصولات آنتروپیک را ممنوع می‌کند.دولت ترامپ این مناقشه را بخشی از نزاعی گسترده‌تر بر سر قدرت و اختیار می‌داند؛ اینکه آیا یک شرکت می‌تواند برای نحوه استفاده از محصولاتش محدودیت تعیین کند، یا دولت حق دارد به‌ویژه به‌نام امنیت ملی این فناوری‌ها را هرگونه که صلاح می‌بیند به کار گیرد. اما در واقع این چارچوب‌بندی انحرافی است. مساله واقعی اینکه چه نهادی باید فناوری‌های پیشرو را تنظیم‌گری کند و چگونه به‌مراتب جدی‌تر و بنیادین‌تر است.

در دهه‌های گذشته نفوذ شرکت‌ها در سیاست بین‌الملل به بهای کاهش نقش دولت‌ها به‌طور پیوسته افزایش یافته است. امروز بنگاه‌های اقتصادی در قلب رقابت‌های ژئوپلیتیک و حتی جنگ‌های مدرن قرار دارند؛ تصمیم‌هایی که مدیران عامل می‌گیرند می‌تواند به‌طور مستقیم بر توان یک کشور برای اعمال قدرت و پیشبرد جنگ اثر بگذارد. دیگر این ارتش‌ها نیستند که به‌طور انحصاری میدان نبرد مدرن را تعریف کنند و سپس از صنعت بخواهند راه‌حل‌های فناورانه ارائه دهد. برعکس شرکت‌های خصوصی هرچه بیشتر با عرضه ابزارها و محصولات دیجیتال ادراک از میدان نبرد معاصر را شکل می‌دهند و وعده مزیت‌های راهبردی به نیروهای نظامی می‌دهند. اما همیشه چنین نبوده است. در جهان دولت‌محورِ پساجنگ دهه‌های ۱۹۵۰ و ۱۹۶۰، شرکت‌ها عموما تابع اقتدار دولت‌ها بودند.

آنها برای امنیت و نظم حقوقی به دولت‌ها متکی بودند و در عین حال تنها استقلال محدودی برای پیگیری اهداف بازار خود داشتند. دهه ۱۹۷۰ نقطه عطفی بود؛ فروپاشی نظام برتون وودز، کاهش کنترل‌های سرمایه و هم‌زمان جهش‌های بزرگ در فناوری‌های اطلاعات و ارتباطات راه را برای جهانی‌شدن شرکت‌ها هموار کرد. پیامد این روند جابه‌جایی قدرت به نفع بازیگران خصوصی و به زیان دولت-ملت‌ها بود. امروز شرکت‌هایی مانند مایکروسافت به‌طور مستقل تصمیم می‌گیرند آیا فناوری‌شان باید از کارزار نظارت گسترده اسرائیل علیه فلسطینیان در غزه پشتیبانی کند یا نه. ایلان ماسک تعیین می‌کند که خدمات استارلینک مورد استفاده سربازان اوکراینی علیه نیروهای روسیه قطع شود یا ادامه یابد. این وضعیت به تنشی بنیادین انجامیده است؛ وقتی منافع شرکت‌های خصوصی با اهداف دولت‌ها تعارض پیدا می‌کند کدام‌یک باید دست بالا را داشته باشد؟

با این حال مناقشه ترامپ با آنتروپیک لایه‌های پیچیده‌تری نیز دارد. در هسته ادعای آنتروپیک این باور نهفته است که کاخ سفیدِ ترامپ امین قابل‌اعتمادی برای فناوری‌های نظامی و نظارتیِ مبتنی بر هوش مصنوعی نیست و این شرکت ناگزیر است برای جلوگیری از سوءاستفاده‌های احتمالی پنتاگون و سایر نهادها، خود به‌طور مستقل حفاظ‌ها و محدودیت‌هایی اعمال کند. آیا آنتروپیک در این نگرانی محق است؟

پس از یک سال حضور در قدرت، رفتار دولت زنگ‌های هشدار را به صدا درآورده است. در داخل کشور، شواهد فزاینده‌ای نشان می‌دهد نهادهایی مانند اداره مهاجرت و گمرک آمریکا (ICE) در استفاده از ابزارهای نظارتی مبتنی بر هوش مصنوعی در حاشیه قانون حرکت می‌کنند. بزرگ‌ترین پیمانکار ICE، شرکت Geo Group، تنها در سال ۲۰۲۵ بیش از ۸۰۰‌میلیون دلار قرارداد برای استخراج داده از پایگاه‌های اطلاعاتی تجاری و نظارت فیزیکی بر افرادی که مظنون به نداشتن مدارک اقامتی هستند به‌دست آورد. کسب‌وکار اصلی این شرکت اداره زندان‌های خصوصی است، اما برای بهره‌برداری از سیاست‌های سخت‌گیرانه اخراج ترامپ، به سمت خدمات نظارتی چرخش کرده است. همزمان ماموران وزارت امنیت داخلی از پایگاه داده‌ای که توسط Palantir اداره می‌شود استفاده می‌کنند؛ سامانه‌ای که داده‌های دولتی و تجاری را ترکیب می‌کند تا مکان‌های لحظه‌ای افراد مورد نظر را شناسایی کند. به گفته ناتان فرید وسلر، وکیل اتحادیه آزادی‌های مدنی آمریکا (ACLU) تجمیع همه این فناوری‌ها به دولت توانایی‌هایی بی‌سابقه می‌دهد.

در عرصه نظامی نیز پنتاگون فشار فزاینده‌ای برای گنجاندن هوش مصنوعی در زرادخانه خود وارد کرده است. از پهپادهای خودمختار تا سامانه‌های هدف‌گیری مبتنی بر هوش مصنوعی، این درک در حال تقویت است که آینده جنگ سریع، خودکار و مرگبار خواهد بود و هرچه بیشتر به ابزارهای هوش مصنوعی برای برتری در میدان نبرد وابسته می‌شود. دولت اعلام کرده قصد دارد استفاده از این فناوری‌ها را دوچندان کند؛ به تعبیر هگست، تبدیل‌شدن به نیرویی هوش مصنوعی‌محور در همه اجزا، از خط مقدم تا پشت جبهه. این در عمل چه معنایی دارد؟ جنگ‌های غزه و اوکراین ظرفیت ویرانگر این سامانه‌ها را به‌روشنی نشان داده‌اند.

با این همه درحالی‌که ترامپ به‌دنبال شتاب‌بخشیدن به برتری نظامی آمریکا در حوزه هوش مصنوعی بوده است، هم‌زمان آگاهانه سازوکارهای حفاظتی و پاسخ‌گویی داخلی را تضعیف کرده است. اندکی پس از آن‌که هگست با اختلافی اندک به‌عنوان وزیر دفاع تایید شد، به‌طور ناگهانی عالی‌ترین حقوق‌دانان نیروهای مسلح معروف به دادستان‌های نظامی (JAG) را برکنار کرد؛ زیرا معتقد بود آنان بخشی از ارتشی نرم و وسواس‌زده به عدالت اجتماعی هستند که طی دو دهه گذشته تحلیل رفته است. افسران JAG نقش یک مانع حیاتیِ پاسخ‌گویی را دارند و بر رفتار نظامی نظارت می‌کنند تا سربازان آمریکا با قوانین جنگی مطابقت داشته باشند؛ حذف رهبری آنها ضربه‌ای نمادین و بزرگ بود.

به‌همین ترتیب هگست دفاتری را در پنتاگون که مامور پیشگیری و پاسخ به آسیب‌های غیرنظامیان در عملیات‌های رزمی بودند منحل کرد. کارکنان دفتر کاهش و پاسخ به آسیب غیرنظامیان و نیز مرکز تعالی حفاظت از غیرنظامیان اخراج شدند و خلأ جدی در ارزیابی ریسک‌های غیرنظامی در حملات پهپادی و ماموریت‌های مشابه پدید آمد. او حتی سرپرست دفتر آزمون و ارزیابی عملیاتی را برکنار و شمار کارکنانش را کاهش داد؛ دفتری که کنگره در سال ۱۹۸۳ برای جلوگیری از به‌کارگیری سامانه‌های تسلیحاتی ناایمن یا ناکارآمد ایجاد کرده بود. تضعیف پاسخ‌گویی ظاهرا به عملیات‌ها نیز سرایت کرده است؛ از جمله در حملات پنتاگون به قایق‌هایی که ترامپ مدعی است در قاچاق مواد مخدر نقش دارند. 

در این شرایط رهبری این شرکت به‌حق نگران نحوه استفاده از سامانه‌هایش، به‌ویژه در جنگ و پلیس‌گری بوده است. مدیرعامل آن داریو آمودِی، مدت‌هاست تاکید می‌کند که هوش مصنوعی برای جلوگیری از آسیب‌زدن به جهان به محدودیت‌های سخت‌گیرانه نیاز دارد. او در مجموعه‌ای از مقالات هشدار داده است که به‌کارگیری هوش مصنوعی برای نظارت انبوه داخلی و تبلیغات انبوه نامشروع است و سلاح‌های هوش مصنوعی مستعد سوءاستفاده‌اند و نباید بدون حفاظ‌های کافی شتاب‌زده وارد میدان شوند. البته همه متقاعد نشده‌اند که آمودِی همواره منافع عمومی را در اولویت دارد؛ در نهایت آنتروپیک یک شرکت سودمحور است که مانند دیگر استارت‌آپ‌های هوش مصنوعی هدف اصلی‌اش عرضه عمومی موفق و بیشینه‌سازی درآمد است. با این وجود هشدارهای او را باید جدی گرفت. حتی اگر دولت ترامپ پایبندی بسیار بیشتری به هنجارها و اصول حقوقی نشان می‌داد، باز هم ورود بی‌محابا به استقرار ابزارهای نظامیِ هوش مصنوعی مخاطرات عظیمی داشت.

اما اگر دولت ترامپ شایستگی نظارت ایمن بر این فناوری‌ها را ندارد، این خود استدلالی برای سپردن کنترل به آنتروپیک هم نیست. برای نمونه حتی اگر آنتروپیک به اصولش وفادار بماند، پنتاگون می‌تواند به‌سادگی سراغ رقیبی دیگر برود که سابقه‌ای مستند از تولید خروجی‌های جانبدارانه، گمراه‌کننده و افراطی دارد. کاربردهای نظامی و نظارتیِ هوش مصنوعی دیگر فرضی نیستند؛ اهمیت آنها در میدان نبرد و پلیس‌گری همین حالا آشکار است. از این‌رو، سایر ا‌رگان‌های نهادی به‌ویژه کنگره باید از حاشیه خارج شوند. قانون‌گذاران باید نقشی مستقیم در تعیین مرزهای استفاده‌های قابل‌قبول از هوش مصنوعی نظامی داشته باشند و شفافیت در گزارش‌دهی درباره نحوه به‌کارگیری این سامانه‌ها توسط پنتاگون را الزامی کنند. همان‌گونه که پژوهشگرانی چون «آلن زد روزنشتاین» می‌نویسند: «قواعد حاکم بر هوش مصنوعی نظامی نباید به تعهدات اخلاقی هر مدیرعاملی که اتفاقا بر سر کار است، یا ترجیحات سیاسی هر وزیر دفاعی که اتفاقا در قدرت است، وابسته باشد.

بدون ورود کنگره، سیاستگذاری هوش مصنوعی همچنان از طریق توافق‌های بداهه میان قوه مجریه و شرکت‌های منفرد شکل خواهد گرفت بی‌آنکه پاسخ‌گویی عمومی داشته باشد و با دوام اندکی فراتر از دولت بعدی.»  مقام‌های دولت ترامپ می‌گویند اختلاف‌شان با آنتروپیک برای اصلاح عدم‌توازن قدرت است؛ برای جلوگیری از این‌که یک شرکت خصوصی تعیین کند ارتش چگونه از ابزارهایش استفاده کند. اما پرسش واقعی این است آیا می‌توان به دولت ترامپ یا شرکت‌های فناوری اعتماد کرد که فناوری‌های قدرتمند هوش مصنوعی را برای امنیت ملی به‌طور ایمن و مسوولانه توسعه دهند؟ پاسخ تا اینجا منفی است.