آیا شرکتهای خصوصی برای استفاده از فناوریهایشان میتوانند برای ارتش آمریکا تعیین تکلیف کنند؟
ماشه پنتاگون روی سر آنتروپیک
آنگونه که فارنافرز نوشته است، این قرارداد نشاندهنده رویکرد فزاینده شرکت برای گسترش حضور در حوزه امنیت ملی بود؛ حرکتی که همزمان با آمادهسازی آنتروپیک برای عرضه عمومی سهام و جذب بازارهای مرتبط با دفاع و امنیت دنبال میشد. مدیران شرکت با خوشبینی از این همکاری یاد کردند و اعلام داشتند که این توافق فصل تازهای را در مسیر رشد و توسعه شرکت رقم میزند.
با این حال خیلی زود اختلافنظرهایی درباره نحوه استفاده آتی ارتش از سامانههای آنتروپیک پدیدار شد. مدیران این شرکت بهتدریج نگران آن شدند که این فناوری در نهایت برای انجام عملیاتهای کاملا خودمختار و مرگبار به کار گرفته شود. در مقابل پنتاگون واکنش نشان داد و استدلال کرد که تصمیمگیری درباره نحوه استفاده از این مدلها در صلاحیت آنتروپیک نیست و مانند هر فناوری دیگری که دولت خریداری میکند باید به خود ارتش واگذار شود.
موضع آنتروپیک در این زمینه با رویکرد شرکتهای دیگری مانند گوگل، xAI متعلق به ایلان ماسک و اوپنایآی متفاوت بود؛ شرکتهایی که بهصورت اصولی پذیرفته بودند مدلهایشان برای هر منظوری که قانون اجازه میدهد مورد استفاده قرار گیرد. در مقابل، آنتروپیک برند خود را بر محور ترویج ایمنی هوش مصنوعی بنا کرده و همواره بر خطوط قرمزی تاکید داشته که به گفته خود حاضر به عبور از آنها نیست. دستورالعملهای استفاده این شرکت شامل محدودیتهای سختگیرانهای است که بهطور صریح، بهکارگیری کلاود در تسهیل خشونت، توسعه یا طراحی سلاح یا انجام نظارت گسترده و انبوه را ممنوع میکند. پس از ماهها تنش اوضاع در ماه ژانویه به نقطه جوش رسید. در پی عملیات ارتش ایالاتمتحده برای بازداشت مادورو، رئیسجمهور پیشین ونزوئلا، یکی از کارکنان آنتروپیک نگرانیهایی را با Palantir درباره نحوه استفاده از مدل کلاود در این عملیات مطرح کرد. پلتفرم Palantir زیرساختی را فراهم میکند که مدل آنتروپیک بر بستر آن یکپارچهسازی میشود.
Palantir در ادامه با پنتاگون تماس گرفت و ابراز نگرانی کرد که ممکن است آنتروپیک با بهکارگیری فناوریاش در ماموریتهای مشابه آینده موافق نباشد. این موضوع به اطلاع وزیر دفاع، هگست، رسید و او با خشم واکنش نشان داد.
چند روز بعد هگست یادداشتی صادر کرد که در آن از شرکتهای هوش مصنوعی خواسته شده بود محدودیتهای اعمالشده بر فناوریهای خود را حذف کنند. این یادداشت آنتروپیک را وادار کرد تا برای بازنگری در مفاد قرارداد وارد مذاکره شود؛ مدیران شرکت از پنتاگون خواستند استفاده از ابزارهای هوش مصنوعی این شرکت با قیود مشخصی همراه شود. این اقدام با واکنش منفی شدیدتری از سوی پنتاگون روبهرو شد. رسانه آکسیوس گزارش داد که هگست نزدیک به قطع همکاری با آنتروپیک بوده و حتی بررسی کرده است که این شرکت را بهعنوان ریسک زنجیره تامین معرفی کند؛ برچسبی که معمولا برای دشمنان خارجی در نظر گرفته میشود. چنین تصمیمی به این معنا بود که هر شرکتی برای همکاری با ارتش باید ارتباط خود را با آنتروپیک قطع کند. هگست در یک سخنرانی در تگزاس تصریح کرد: «ما از مدلهای هوش مصنوعی استفاده نخواهیم کرد که اجازه جنگیدن به شما ندهند.»
با توجه به این شرایط واکنش سختگیرانه دولت ترامپ چندان دور از انتظار نبود. از همان ابتدا مشاوران ارشد کاخ سفید نسبت به آنتروپیک بدبین بودند. ماهها پیش از این تزار هوش مصنوعی کاخ سفید، دیوید ساکس، بهطور علنی این شرکت را هدف قرار داد و آن را متهم کرد که در پی پیشبرد دستورکاری است.
در سپتامبر سال گذشته آنتروپیک با رد درخواست نهادهای فدرال اجرای قانون برای استفاده از ابزارهای هوش مصنوعیاش در پایش شهروندان آمریکایی، خشم مقامهای دولت ترامپ را برانگیخت. در واکنش یکی از مقامات دولتی موضع آنتروپیک را معادل صدور داوری اخلاقی درباره نحوه انجام وظایف نهادهای مجری قانون توصیف کرد.
اکنون گزارشها حاکی از آن است که وزیر دفاع، هگست، به آنتروپیک تا عصر جمعه مهلت داده است تا دسترسی بدون قیدوشرط پنتاگون به مدل هوش مصنوعی خود را بپذیرد؛ در غیر این صورت با مجازاتهای سنگین مواجه خواهد شد. هگست همزمان تهدید کرده است که یا با استناد به قانون تولید دفاعی آنتروپیک را وادار به در اختیار گذاشتن کلاود برای ارتش کند یا این شرکت را ریسک زنجیره تامین اعلام کند؛ اقدامی که عملا استفاده پنتاگون از محصولات آنتروپیک را ممنوع میکند.دولت ترامپ این مناقشه را بخشی از نزاعی گستردهتر بر سر قدرت و اختیار میداند؛ اینکه آیا یک شرکت میتواند برای نحوه استفاده از محصولاتش محدودیت تعیین کند، یا دولت حق دارد بهویژه بهنام امنیت ملی این فناوریها را هرگونه که صلاح میبیند به کار گیرد. اما در واقع این چارچوببندی انحرافی است. مساله واقعی اینکه چه نهادی باید فناوریهای پیشرو را تنظیمگری کند و چگونه بهمراتب جدیتر و بنیادینتر است.
در دهههای گذشته نفوذ شرکتها در سیاست بینالملل به بهای کاهش نقش دولتها بهطور پیوسته افزایش یافته است. امروز بنگاههای اقتصادی در قلب رقابتهای ژئوپلیتیک و حتی جنگهای مدرن قرار دارند؛ تصمیمهایی که مدیران عامل میگیرند میتواند بهطور مستقیم بر توان یک کشور برای اعمال قدرت و پیشبرد جنگ اثر بگذارد. دیگر این ارتشها نیستند که بهطور انحصاری میدان نبرد مدرن را تعریف کنند و سپس از صنعت بخواهند راهحلهای فناورانه ارائه دهد. برعکس شرکتهای خصوصی هرچه بیشتر با عرضه ابزارها و محصولات دیجیتال ادراک از میدان نبرد معاصر را شکل میدهند و وعده مزیتهای راهبردی به نیروهای نظامی میدهند. اما همیشه چنین نبوده است. در جهان دولتمحورِ پساجنگ دهههای ۱۹۵۰ و ۱۹۶۰، شرکتها عموما تابع اقتدار دولتها بودند.
آنها برای امنیت و نظم حقوقی به دولتها متکی بودند و در عین حال تنها استقلال محدودی برای پیگیری اهداف بازار خود داشتند. دهه ۱۹۷۰ نقطه عطفی بود؛ فروپاشی نظام برتون وودز، کاهش کنترلهای سرمایه و همزمان جهشهای بزرگ در فناوریهای اطلاعات و ارتباطات راه را برای جهانیشدن شرکتها هموار کرد. پیامد این روند جابهجایی قدرت به نفع بازیگران خصوصی و به زیان دولت-ملتها بود. امروز شرکتهایی مانند مایکروسافت بهطور مستقل تصمیم میگیرند آیا فناوریشان باید از کارزار نظارت گسترده اسرائیل علیه فلسطینیان در غزه پشتیبانی کند یا نه. ایلان ماسک تعیین میکند که خدمات استارلینک مورد استفاده سربازان اوکراینی علیه نیروهای روسیه قطع شود یا ادامه یابد. این وضعیت به تنشی بنیادین انجامیده است؛ وقتی منافع شرکتهای خصوصی با اهداف دولتها تعارض پیدا میکند کدامیک باید دست بالا را داشته باشد؟
با این حال مناقشه ترامپ با آنتروپیک لایههای پیچیدهتری نیز دارد. در هسته ادعای آنتروپیک این باور نهفته است که کاخ سفیدِ ترامپ امین قابلاعتمادی برای فناوریهای نظامی و نظارتیِ مبتنی بر هوش مصنوعی نیست و این شرکت ناگزیر است برای جلوگیری از سوءاستفادههای احتمالی پنتاگون و سایر نهادها، خود بهطور مستقل حفاظها و محدودیتهایی اعمال کند. آیا آنتروپیک در این نگرانی محق است؟
پس از یک سال حضور در قدرت، رفتار دولت زنگهای هشدار را به صدا درآورده است. در داخل کشور، شواهد فزایندهای نشان میدهد نهادهایی مانند اداره مهاجرت و گمرک آمریکا (ICE) در استفاده از ابزارهای نظارتی مبتنی بر هوش مصنوعی در حاشیه قانون حرکت میکنند. بزرگترین پیمانکار ICE، شرکت Geo Group، تنها در سال ۲۰۲۵ بیش از ۸۰۰میلیون دلار قرارداد برای استخراج داده از پایگاههای اطلاعاتی تجاری و نظارت فیزیکی بر افرادی که مظنون به نداشتن مدارک اقامتی هستند بهدست آورد. کسبوکار اصلی این شرکت اداره زندانهای خصوصی است، اما برای بهرهبرداری از سیاستهای سختگیرانه اخراج ترامپ، به سمت خدمات نظارتی چرخش کرده است. همزمان ماموران وزارت امنیت داخلی از پایگاه دادهای که توسط Palantir اداره میشود استفاده میکنند؛ سامانهای که دادههای دولتی و تجاری را ترکیب میکند تا مکانهای لحظهای افراد مورد نظر را شناسایی کند. به گفته ناتان فرید وسلر، وکیل اتحادیه آزادیهای مدنی آمریکا (ACLU) تجمیع همه این فناوریها به دولت تواناییهایی بیسابقه میدهد.
در عرصه نظامی نیز پنتاگون فشار فزایندهای برای گنجاندن هوش مصنوعی در زرادخانه خود وارد کرده است. از پهپادهای خودمختار تا سامانههای هدفگیری مبتنی بر هوش مصنوعی، این درک در حال تقویت است که آینده جنگ سریع، خودکار و مرگبار خواهد بود و هرچه بیشتر به ابزارهای هوش مصنوعی برای برتری در میدان نبرد وابسته میشود. دولت اعلام کرده قصد دارد استفاده از این فناوریها را دوچندان کند؛ به تعبیر هگست، تبدیلشدن به نیرویی هوش مصنوعیمحور در همه اجزا، از خط مقدم تا پشت جبهه. این در عمل چه معنایی دارد؟ جنگهای غزه و اوکراین ظرفیت ویرانگر این سامانهها را بهروشنی نشان دادهاند.
با این همه درحالیکه ترامپ بهدنبال شتاببخشیدن به برتری نظامی آمریکا در حوزه هوش مصنوعی بوده است، همزمان آگاهانه سازوکارهای حفاظتی و پاسخگویی داخلی را تضعیف کرده است. اندکی پس از آنکه هگست با اختلافی اندک بهعنوان وزیر دفاع تایید شد، بهطور ناگهانی عالیترین حقوقدانان نیروهای مسلح معروف به دادستانهای نظامی (JAG) را برکنار کرد؛ زیرا معتقد بود آنان بخشی از ارتشی نرم و وسواسزده به عدالت اجتماعی هستند که طی دو دهه گذشته تحلیل رفته است. افسران JAG نقش یک مانع حیاتیِ پاسخگویی را دارند و بر رفتار نظامی نظارت میکنند تا سربازان آمریکا با قوانین جنگی مطابقت داشته باشند؛ حذف رهبری آنها ضربهای نمادین و بزرگ بود.
بههمین ترتیب هگست دفاتری را در پنتاگون که مامور پیشگیری و پاسخ به آسیبهای غیرنظامیان در عملیاتهای رزمی بودند منحل کرد. کارکنان دفتر کاهش و پاسخ به آسیب غیرنظامیان و نیز مرکز تعالی حفاظت از غیرنظامیان اخراج شدند و خلأ جدی در ارزیابی ریسکهای غیرنظامی در حملات پهپادی و ماموریتهای مشابه پدید آمد. او حتی سرپرست دفتر آزمون و ارزیابی عملیاتی را برکنار و شمار کارکنانش را کاهش داد؛ دفتری که کنگره در سال ۱۹۸۳ برای جلوگیری از بهکارگیری سامانههای تسلیحاتی ناایمن یا ناکارآمد ایجاد کرده بود. تضعیف پاسخگویی ظاهرا به عملیاتها نیز سرایت کرده است؛ از جمله در حملات پنتاگون به قایقهایی که ترامپ مدعی است در قاچاق مواد مخدر نقش دارند.
در این شرایط رهبری این شرکت بهحق نگران نحوه استفاده از سامانههایش، بهویژه در جنگ و پلیسگری بوده است. مدیرعامل آن داریو آمودِی، مدتهاست تاکید میکند که هوش مصنوعی برای جلوگیری از آسیبزدن به جهان به محدودیتهای سختگیرانه نیاز دارد. او در مجموعهای از مقالات هشدار داده است که بهکارگیری هوش مصنوعی برای نظارت انبوه داخلی و تبلیغات انبوه نامشروع است و سلاحهای هوش مصنوعی مستعد سوءاستفادهاند و نباید بدون حفاظهای کافی شتابزده وارد میدان شوند. البته همه متقاعد نشدهاند که آمودِی همواره منافع عمومی را در اولویت دارد؛ در نهایت آنتروپیک یک شرکت سودمحور است که مانند دیگر استارتآپهای هوش مصنوعی هدف اصلیاش عرضه عمومی موفق و بیشینهسازی درآمد است. با این وجود هشدارهای او را باید جدی گرفت. حتی اگر دولت ترامپ پایبندی بسیار بیشتری به هنجارها و اصول حقوقی نشان میداد، باز هم ورود بیمحابا به استقرار ابزارهای نظامیِ هوش مصنوعی مخاطرات عظیمی داشت.
اما اگر دولت ترامپ شایستگی نظارت ایمن بر این فناوریها را ندارد، این خود استدلالی برای سپردن کنترل به آنتروپیک هم نیست. برای نمونه حتی اگر آنتروپیک به اصولش وفادار بماند، پنتاگون میتواند بهسادگی سراغ رقیبی دیگر برود که سابقهای مستند از تولید خروجیهای جانبدارانه، گمراهکننده و افراطی دارد. کاربردهای نظامی و نظارتیِ هوش مصنوعی دیگر فرضی نیستند؛ اهمیت آنها در میدان نبرد و پلیسگری همین حالا آشکار است. از اینرو، سایر ارگانهای نهادی بهویژه کنگره باید از حاشیه خارج شوند. قانونگذاران باید نقشی مستقیم در تعیین مرزهای استفادههای قابلقبول از هوش مصنوعی نظامی داشته باشند و شفافیت در گزارشدهی درباره نحوه بهکارگیری این سامانهها توسط پنتاگون را الزامی کنند. همانگونه که پژوهشگرانی چون «آلن زد روزنشتاین» مینویسند: «قواعد حاکم بر هوش مصنوعی نظامی نباید به تعهدات اخلاقی هر مدیرعاملی که اتفاقا بر سر کار است، یا ترجیحات سیاسی هر وزیر دفاعی که اتفاقا در قدرت است، وابسته باشد.
بدون ورود کنگره، سیاستگذاری هوش مصنوعی همچنان از طریق توافقهای بداهه میان قوه مجریه و شرکتهای منفرد شکل خواهد گرفت بیآنکه پاسخگویی عمومی داشته باشد و با دوام اندکی فراتر از دولت بعدی.» مقامهای دولت ترامپ میگویند اختلافشان با آنتروپیک برای اصلاح عدمتوازن قدرت است؛ برای جلوگیری از اینکه یک شرکت خصوصی تعیین کند ارتش چگونه از ابزارهایش استفاده کند. اما پرسش واقعی این است آیا میتوان به دولت ترامپ یا شرکتهای فناوری اعتماد کرد که فناوریهای قدرتمند هوش مصنوعی را برای امنیت ملی بهطور ایمن و مسوولانه توسعه دهند؟ پاسخ تا اینجا منفی است.