آوین ویژه»

امام علی (ع) همدلی میان مسلمانان را به‌ عنوان اصلی اساسی مطرح می کند مراسم تشییع پیکرهای مطهر شهید سیدحسن نصرالله و شهید سیدهاشم صفی‌الدین حمله قریب‌الوقوع ترکیه به کردهای سوریه لبخند بر لب سهام‌داران عدالت نشست | ارزش سهام اعلام شد تقدیر از مرضیه برومند و اکبر زنجانپور در دانشگاه تهران نامزدهای جشنواره فیلم‌ فجر اعلام شدند؛ «بچه مردم» با ۱۴ نامزدی در صدر لخ پوزنان مخالف جدایی قلی زاده است/ درویش: راضی شوند جذبش می کنیم تراکتور با پیروزی مقابل استقلال خوزستان صدرنشینی نیم فصل را به دنبال دارد تمرین جدی ملی‌پوشان برای قطعی‌کردن صعود سامسونگ باتری تاشو ساخت افزایش سه درصدی مخازن سوخت نیروگاهی خاموشی‌های خانگی را منتفی کرد ایوب آقاخانی: رکورد جدیدی در بخش نمایشنامه نویسی تئاتر فجر ثبت شد زلزله به بیش از ۱۰ روستا بخش دژگاه دهرم فارس خسارت زد سردار فدوی: شهدا الگوی بارز ایستادگی و مقاومت بودند فیلم‌های اجتماعی کجای جدول فروش هستند؟؛ کمدی‌ها همچنان در صدر سفارش میرزا جوادآقا ملکی تبریزی برای خواندن فرازهای مناجات شعبانیه در قنوت نماز آتش زنده کامکارها در شب زمستانی تهران این ایستگاه مترو تاخرداد افتتاح می شود؛پرونده خط 6 و 7 مترو چه زمانی بسته می شود؟

0

مذاکره در کار نیست، بمب اتم می‌زنیم!

  • کد خبر : 52732
  • ۰۱ بهمن ۱۴۰۳ - ۲۰:۵۶
مذاکره در کار نیست، بمب اتم می‌زنیم!

گزارش‌ها حاکی از آن است که مدل‌های زبانی بزرگ (LLM) که اغلب به عنوان عوامل دیپلماتیک در سناریوهای شبیه‌سازی شده حضور پیدا می‌کنند، خشونت و حملات هسته‌ای را به عنوان راه حل‌های مناسب انتخاب کردند.

به گزارش خبرگزاری خبرآنلاین، مطالعه‌ای که در سال گذشته انجام شد، نشان داد که وقتی پای هوش مصنوعی به جنگ‌های شبیه‌سازی شده و سناریوهای دیپلماتیک می‌رسد، این فناوری تمایل به انتخاب رویکرد تهاجمی از جمله استفاده از سلاح‌های هسته‌ای دارد.

طی این مطالعه که در دانشگاه کرنل در ایالات متحده صورت گرفت، از پنج LLM به عنوان عوامل مستقل در جنگ‌های شبیه‌سازی شده و سناریوهای دیپلماتیک استفاده شد:

  • GPT OpenAI
  • Claude Anthropic
  • Llama 2 Meta 

بر اساس این مطالعه، هر عامل توسط همان LLM در یک شبیه‌سازی نیرو می‌گرفت و وظیفه داشت بدون نظارت انسان تصمیمات سیاست خارجی را اتخاذ کند.

طی این مطالعه همه مدل‌ها نشانه‌هایی از رفتار ناگهانی و غیرقابل پیش‌بینی را بروز دادند.

مذاکره در کار نیست، بمب اتم می‌زنیم!

با توجه به اینکه OpenAI اخیراً شرایط خدمات خود را تغییر داده است تا دیگر موارد استفاده نظامی و جنگی از آن ممنوع شود، درک پیامدهای استفاده نظامی از LLM‌ها از همیشه مهم‌تر است.

یکی از روش‌هایی که برای تنظیم دقیق مدل‌ها استفاده می‌شود، یادگیری تقویتی از بازخورد انسانی (RLHF) است به این معنی که برخی دستورالعمل‌های انسانی برای دریافت خروجی‌های مضر کمتر و استفاده ایمن‌تر داده می‌شود.

طبق گزارش محققان، GPT-4-Base به طور متوسط ​​33 درصد از مواقع حملات هسته‌ای را پیشنهاد می‌داد. سناریوهای کلی، Llama-2 و GPT-3.5 خشن‌ترین سناریوها بودند در حالی که Claude تغییرات ناگهانی کمتری را نشان داد. گفتنی است که Claude با ایده کاهش محتوای مضر طراحی شده است. 

به گفته سازنده آن Anthropic، قانون اساسی Claude شامل منابع مختلفی از جمله اعلامیه حقوق بشر سازمان ملل می‌شود.

جیمز بلک، دستیار گروه تحقیقاتی در مباحث امنیتی و دفاعی در اروپا، که در این مطالعه شرکت نکرد، به یورونیوز نکست گفت که این یک “تمرین آکادمیک مفید” بود.

او گفت: «این بخشی از کار رو به رشدی است که توسط دانشگاهیان و مؤسسات برای درک پیامدهای استفاده از هوش مصنوعی (AI) انجام می‌شود.»

منبع: euronews

۲۲۷۲۲۷

لینک کوتاه : https://avindaily.ir/?p=52732

جویای نظرات شما هستیم

مجموع دیدگاهها : 0
قوانین درج کامنت در آوین‌دیلی
  • کامنت‌های ارسالی شما، ابتدا توسط سردبیر آوینی ما بررسی خواهد شد.
  • اگر کامنت شما، حاوی تهمت یا افترا باشد، منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.