آوین ویژه»

وعده بزرگ مجلس و دولت به ۷ دهک | یارانه معیشتی کالابرگ همیشگی شد گزارش تصویری| ازدواج جنجالی جف بزوس در ونیز؛ از حضور سلبریتی‌ها تا انتقاد فعالان شهری استمرار تخلف دریافت هزینه اوراق اضافی توسط دفاتر ثبت اسناد شاه ماهی پرسپولیسی در راه دبی پیکر مطهر شهدای پلیس راهور شهرستان ریگان فردا تشییع می‌شود ۲۰ سرپرست دانشگاه در صف تأیید شورا؛ چرا روند بررسی‌ها طولانی شد؟ شهید سلیمانی نمونه‌ای بی بدیل در تبعیت از ولایت بود اختصاص وجوهات فطریه و کفاره برای محرومیت‌زدایی در شش ماه نخست سال جاری ۶۴۰۶۱ مورد خدمات درمانی توسط مرکز اورژانس به بیماران ارائه شد افزایش کیفیت زندگی در شرق تهران با اجرای پروژه تصفیه‌خانه فاضلاب سفر فرمانده فراجا به شرق استان تهران در جلسه نقد و بررسی فیلم تئاتر «مادام دوساد» چه گذشت؟ راه اندازی ۶۱۹ مگاوات ظرفیت جدید برق معدن و صنایع معدنی با راهبری ایمیدرو هیئت‌های مذهبی سراسر کشور به کمک مردم لبنان و فلسطین می‌روند گوشی پرچمدار جدید سامسونگ رکورد زد درباره واریز سود سهام عدالت این مطلب را جدی بگیرید بررسی تاسیس و فعالیت کارگزاری‌های جذب سرمایه‌گذاری عزاداری شب شهادت حضرت زهرا(س) در بندرعباس

0

مذاکره در کار نیست، بمب اتم می‌زنیم!

  • کد خبر : 52732
  • ۰۱ بهمن ۱۴۰۳ - ۲۰:۵۶
مذاکره در کار نیست، بمب اتم می‌زنیم!

گزارش‌ها حاکی از آن است که مدل‌های زبانی بزرگ (LLM) که اغلب به عنوان عوامل دیپلماتیک در سناریوهای شبیه‌سازی شده حضور پیدا می‌کنند، خشونت و حملات هسته‌ای را به عنوان راه حل‌های مناسب انتخاب کردند.

به گزارش خبرگزاری خبرآنلاین، مطالعه‌ای که در سال گذشته انجام شد، نشان داد که وقتی پای هوش مصنوعی به جنگ‌های شبیه‌سازی شده و سناریوهای دیپلماتیک می‌رسد، این فناوری تمایل به انتخاب رویکرد تهاجمی از جمله استفاده از سلاح‌های هسته‌ای دارد.

طی این مطالعه که در دانشگاه کرنل در ایالات متحده صورت گرفت، از پنج LLM به عنوان عوامل مستقل در جنگ‌های شبیه‌سازی شده و سناریوهای دیپلماتیک استفاده شد:

  • GPT OpenAI
  • Claude Anthropic
  • Llama 2 Meta 

بر اساس این مطالعه، هر عامل توسط همان LLM در یک شبیه‌سازی نیرو می‌گرفت و وظیفه داشت بدون نظارت انسان تصمیمات سیاست خارجی را اتخاذ کند.

طی این مطالعه همه مدل‌ها نشانه‌هایی از رفتار ناگهانی و غیرقابل پیش‌بینی را بروز دادند.

مذاکره در کار نیست، بمب اتم می‌زنیم!

با توجه به اینکه OpenAI اخیراً شرایط خدمات خود را تغییر داده است تا دیگر موارد استفاده نظامی و جنگی از آن ممنوع شود، درک پیامدهای استفاده نظامی از LLM‌ها از همیشه مهم‌تر است.

یکی از روش‌هایی که برای تنظیم دقیق مدل‌ها استفاده می‌شود، یادگیری تقویتی از بازخورد انسانی (RLHF) است به این معنی که برخی دستورالعمل‌های انسانی برای دریافت خروجی‌های مضر کمتر و استفاده ایمن‌تر داده می‌شود.

طبق گزارش محققان، GPT-4-Base به طور متوسط ​​33 درصد از مواقع حملات هسته‌ای را پیشنهاد می‌داد. سناریوهای کلی، Llama-2 و GPT-3.5 خشن‌ترین سناریوها بودند در حالی که Claude تغییرات ناگهانی کمتری را نشان داد. گفتنی است که Claude با ایده کاهش محتوای مضر طراحی شده است. 

به گفته سازنده آن Anthropic، قانون اساسی Claude شامل منابع مختلفی از جمله اعلامیه حقوق بشر سازمان ملل می‌شود.

جیمز بلک، دستیار گروه تحقیقاتی در مباحث امنیتی و دفاعی در اروپا، که در این مطالعه شرکت نکرد، به یورونیوز نکست گفت که این یک “تمرین آکادمیک مفید” بود.

او گفت: «این بخشی از کار رو به رشدی است که توسط دانشگاهیان و مؤسسات برای درک پیامدهای استفاده از هوش مصنوعی (AI) انجام می‌شود.»

منبع: euronews

۲۲۷۲۲۷

لینک کوتاه : https://avindaily.ir/?p=52732

جویای نظرات شما هستیم

مجموع دیدگاهها : 0
قوانین درج کامنت در آوین‌دیلی
  • کامنت‌های ارسالی شما، ابتدا توسط سردبیر آوینی ما بررسی خواهد شد.
  • اگر کامنت شما، حاوی تهمت یا افترا باشد، منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.