خانه
ثبت نام / ورود
ماینر ها
ژنراتور
سبد خرید

ایستادگی مدیر اجرایی آنتروپیک در برابر فشار پنتاگون برای حذف محدودیت‌های هوش مصنوعی


ایستادگی مدیر اجرایی آنتروپیک در برابر فشار پنتاگون برای حذف محدودیت‌های هوش مصنوعی | ایران ماین

داریو آمودی (Dario Amodei)، مدیر اجرایی کمپانی آنتروپیک (Anthropic)، رسماً اعلام کرد که این کمپانی از حذف تدابیر امنیتی مدل هوش مصنوعی کلود (Claude) برای استفاده‌های نظامی خودداری می‌کند. این تصمیم در پی ضرب‌الاجل وزارت دفاع ایالات متحده (Pentagon) اتخاذ شده که از پیمانکاران هوش مصنوعی خواسته است اجازه هرگونه بهره‌برداری قانونی از سیستم‌های خود در سامانه‌های طبقه‌بندی‌شده نظامی را صادر کنند. تنش‌ها زمانی بالا گرفت که پنتاگون تهدید کرد قرارداد ۲۰۰ میلیون دلاری این کمپانی را لغو و آن را به عنوان «خطر زنجیره تأمین» معرفی خواهد کرد.

آبان تتر | «کریپتو باکس» ورود آسان و مطمئن به بازار سرمایه‌گذاری روی سبد ۱۰ رمزارز برتر بازار براساس شاخص BITWISE با مدیریت خودکار خرید کریپتو باکس

آمودی ضمن تأکید بر اهمیت استراتژیک هوش مصنوعی در دفاع از دموکراسی، تاکید کرد که سیستم‌های فعلی برای سلاح‌های کاملاً خودمختار به اندازه کافی قابل‌اعتماد نیستند. او معتقد است استفاده از این فناوری برای کنترل توده‌ای داخلی یا تسلیحات مستقل، با نرخ‌های دموکراتیک در تضاد است.

در حال حاضر، مدل کلود در بخش‌های مختلف دفاعی برای تحلیل داده‌های اطلاعاتی، شبیه‌سازی و برنامه‌ریزی عملیاتی استفاده می‌شود، ولی آنتروپیک حاضر به واگذاری کنترل کامل لایه‌های امنیتی آن به ارتش نیست.

تهدید پنتاگون و واکنش‌های حقوقی

وزارت دفاع آمریکا در نظر دارد با استناد به قانون تولید دفاعی، آنتروپیک را مجبور به همکاری کند. رابرت ویسمن (Robert Weissman)، رئیس نهاد پابلیک سیتیزن (Public Citizen)، معتقد است پنتاگون با تحت فشار گذاشتن عمومی آنتروپیک، قصد دارد پیامی به تمام کمپانی‌های بزرگ فناوری ارسال کند تا بدانند ارتش دسترسی بدون محدودیت به اختراعات آن‌ها را انتظار دارد.

داریو آمودی در بیانیه رسمی خود گفت:

ما نمی‌توانیم با وجدانی آسوده با درخواست آن‌ها موافقت کنیم. استفاده از این سیستم‌ها برای سلاح‌های خودمختار خطر جدی برای رزمندگان و غیرنظامیان آمریکایی به همراه دارد.

دلواپسی از رفتارهای غیرقابل پیش‌بینی هوش مصنوعی

دلیل اصلی پافشاری آنتروپیک بر حفظ خطوط قرمز، نتایج نگران‌کننده مطالعات اخیر است. در مطالعات دانشگاه کینگز لندن، نسخه‌های پیشرفته هوش مصنوعی از جمله کلود و جی‌پی‌تی در ۹۵ درصد سناریوهای شبیه‌سازی‌شده بحران‌های ژئوپلیتیک، به استفاده از تسلیحات هسته‌ای روی آورده‌اند. این عدم ثبات در تصمیم‌گیری‌های حساس، دلواپسی‌ها راجع به واگذاری کنترل کامل این ابزارها به بخش‌های نظامی بدون کنترل کمپانی‌های سازنده را دوچندان کرده است.