مخالفت قاطع آنتروپیک با پروژههای هوش مصنوعی پنتاگون جنجال به پا کرد
در یک تصمیم بحثبرانگیز و تاریخی، شرکت آنتروپیک درخواست رسمی وزارت دفاع ایالات متحده مبنی بر دسترسی نامحدود به مدلهای هوش مصنوعی خود را قاطعانه رد کرد. این تصمیم در شرایطی اتخاذ شد که تنها 24 ساعت تا پایان اولتیماتوم تعیین شده توسط پنتاگون باقی مانده بود. مدیران این مجموعه فناوری تاکید کردهاند که به هیچ وجه حاضر نیستند ابزارهای پیشرفته آنها برای توسعه سلاحهای کاملاً خودکار یا نظارتهای گسترده و جمعی بر شهروندان مورد استفاده قرار گیرند. این مقاومت در حالی صورت میگیرد که سایر غولهای حوزه تکنولوژی پیش از این به خواستههای مشابه دولت آمریکا تن داده بودند و محدودیتهای امنیتی خود را لغو کردهاند.
«داریو آمودی»، مدیرعامل آنتروپیک، پس از ملاقات با وزیر دفاع آمریکا در کاخ سفید، بر اصول اخلاقی و خطوط قرمز مجموعه خود پافشاری کرد. وی در یک بیانیه رسمی توضیح داد که هرچند استفاده از فناوریهای نوین برای دفاع از ارزشهای دموکراتیک و امنیت ملی اهمیتی کلیدی دارد، اما کاربردهایی مانند سیستمهای تسلیحاتی خودمختار بدون نظارت انسان، از مرزهای ایمنی فناوری فعلی فراتر میروند. به گفته وی، سیستمهای هوشمند امروزی هنوز به آن سطح از پایداری و اطمینان نرسیدهاند که بتوانند تصمیمات حیاتی در میدان نبرد را به تنهایی اتخاذ کنند و جان سربازان یا غیرنظامیان را به خطر نیندازند.

دولت آمریکا در واکنش به این مخالفت، تهدید کرده است که نام آنتروپیک را در فهرست خطرهای زنجیره تامین قرار خواهد داد. این برچسب که معمولاً برای نهادهای متخاصم خارجی به کار میرود، میتواند پیامدهای مالی سنگینی برای یک پیمانکار نظامی به همراه داشته باشد. همچنین، پنتاگون ممکن است با استناد به قوانین تولیدات دفاعی، این توسعهدهنده هوش مصنوعی را مجبور به حذف پروتکلهای امنیتی خود کند. با این وجود، مدیرعامل این شرکت ضمن اشاره به تناقضات رفتاری دولت، اعلام کرد که حاضر نیست با وجدانی ناآرام چنین درخواستهایی را بپذیرد.
در بخش دیگری از مذاکرات، مقامات پنتاگون به صراحت خواستار لغو تمام موانع ایمنی مدل زبانی کلود شده بودند تا بتوانند از آن در هر عملیات نظامی استفاده کنند. خالق کلود به صراحت اعلام کرده است که در صورت پافشاری وزارت دفاع بر قطع همکاری، آماده است فرآیند انتقال به یک ارائهدهنده جایگزین را به شکلی آرام و بدون ایجاد اختلال در ماموریتهای حیاتی ارتش پیش ببرد. در شرایطی که رقبایی نظیر OpenAI شرایط جدید قراردادهای نظامی را پذیرفتهاند، این استارتاپ تنها مجموعهای محسوب میشود که با وجود داشتن مجوزهای امنیتی لازم برای فعالیت در پروژههای طبقهبندی شده، حاضر به معامله بر سر اصول اخلاقی خود نشده است. استفاده از فناوریهای پیشرفته در عملیاتهای اخیر نشان میدهد تقاضا برای ابزارهای هوشمند در بخش نظامی به شدت در حال افزایش است، اما فقدان قوانین نظارتی شفاف همچنان یک چالش بزرگ به شمار میرود.
منبع: theguardian
