آوین ویژه»

نمایشگاه‌های قرآنی نیازمند بازآفرینی برای جذب نسل امروز هستند وزیر راه: به تعرفه‌های سنگین واردات خودرو نه بگویم/ شورای عالی مسکن برگزار می‌شود ۸۸ هزار دانش آموز در ۶۳۳ مدرسه تحصیل می‌کنند سالیوان: تک‌تک دلارها را برای تسلیح اوکراین خرج خواهیم کرد واریز سود سهام عدالت متوفیان در شب یلدا + جزئیات خبر تعطیلی پایگاه اورژانس در یاسوج تکذیب شد؛ بازی با امنیت روانی جامعه  تخصیص درآمدهای دانشگاه علوم پزشکی همدان برای بهبود آموزش حال و هوای معتکفان نوجوان در مسجد امام خمینی(ره) بازار درخواست گروه های طرفدار فلسطین در انگلیس برای پایان اشغالگری صهیونیست ها درگذشت یک عضو هیئت علمی دانشگاه تهران و همسر و فرزندش در سانحه رانندگی اعتکاف بزرگ دانش‌آموزی در امامزاده یحیی تهران برگزار می شود سوال روز بیست و سوم پویش «زندگی با آیه‌ها» در سمنان آغاز بارش برف و باران شدید در ۳۱ استان کشور دادستان پیشین اسرائیل خواستار تمرد خلبانان اسرائیلی در اعتراض به فساد نتانیاهو شد حماس: برای مذاکرات مرحله دوم آتش بس آماده ایم عملیات استشهادی در شمال رام الله+فیلم ناگهان طارمی تبدیل به منافع ملی شد/ نبرد دست و پاچلفتی‌های بی افتخار! سلامت و ایمنی دانش آموزان در مدارس خط قرمز است

0

مذاکره در کار نیست، بمب اتم می‌زنیم!

  • کد خبر : 52732
  • ۰۱ بهمن ۱۴۰۳ - ۲۰:۵۶
مذاکره در کار نیست، بمب اتم می‌زنیم!

گزارش‌ها حاکی از آن است که مدل‌های زبانی بزرگ (LLM) که اغلب به عنوان عوامل دیپلماتیک در سناریوهای شبیه‌سازی شده حضور پیدا می‌کنند، خشونت و حملات هسته‌ای را به عنوان راه حل‌های مناسب انتخاب کردند.

به گزارش خبرگزاری خبرآنلاین، مطالعه‌ای که در سال گذشته انجام شد، نشان داد که وقتی پای هوش مصنوعی به جنگ‌های شبیه‌سازی شده و سناریوهای دیپلماتیک می‌رسد، این فناوری تمایل به انتخاب رویکرد تهاجمی از جمله استفاده از سلاح‌های هسته‌ای دارد.

طی این مطالعه که در دانشگاه کرنل در ایالات متحده صورت گرفت، از پنج LLM به عنوان عوامل مستقل در جنگ‌های شبیه‌سازی شده و سناریوهای دیپلماتیک استفاده شد:

  • GPT OpenAI
  • Claude Anthropic
  • Llama 2 Meta 

بر اساس این مطالعه، هر عامل توسط همان LLM در یک شبیه‌سازی نیرو می‌گرفت و وظیفه داشت بدون نظارت انسان تصمیمات سیاست خارجی را اتخاذ کند.

طی این مطالعه همه مدل‌ها نشانه‌هایی از رفتار ناگهانی و غیرقابل پیش‌بینی را بروز دادند.

مذاکره در کار نیست، بمب اتم می‌زنیم!

با توجه به اینکه OpenAI اخیراً شرایط خدمات خود را تغییر داده است تا دیگر موارد استفاده نظامی و جنگی از آن ممنوع شود، درک پیامدهای استفاده نظامی از LLM‌ها از همیشه مهم‌تر است.

یکی از روش‌هایی که برای تنظیم دقیق مدل‌ها استفاده می‌شود، یادگیری تقویتی از بازخورد انسانی (RLHF) است به این معنی که برخی دستورالعمل‌های انسانی برای دریافت خروجی‌های مضر کمتر و استفاده ایمن‌تر داده می‌شود.

طبق گزارش محققان، GPT-4-Base به طور متوسط ​​33 درصد از مواقع حملات هسته‌ای را پیشنهاد می‌داد. سناریوهای کلی، Llama-2 و GPT-3.5 خشن‌ترین سناریوها بودند در حالی که Claude تغییرات ناگهانی کمتری را نشان داد. گفتنی است که Claude با ایده کاهش محتوای مضر طراحی شده است. 

به گفته سازنده آن Anthropic، قانون اساسی Claude شامل منابع مختلفی از جمله اعلامیه حقوق بشر سازمان ملل می‌شود.

جیمز بلک، دستیار گروه تحقیقاتی در مباحث امنیتی و دفاعی در اروپا، که در این مطالعه شرکت نکرد، به یورونیوز نکست گفت که این یک “تمرین آکادمیک مفید” بود.

او گفت: «این بخشی از کار رو به رشدی است که توسط دانشگاهیان و مؤسسات برای درک پیامدهای استفاده از هوش مصنوعی (AI) انجام می‌شود.»

منبع: euronews

۲۲۷۲۲۷

لینک کوتاه : https://avindaily.ir/?p=52732

جویای نظرات شما هستیم

مجموع دیدگاهها : 0
قوانین درج کامنت در آوین‌دیلی
  • کامنت‌های ارسالی شما، ابتدا توسط سردبیر آوینی ما بررسی خواهد شد.
  • اگر کامنت شما، حاوی تهمت یا افترا باشد، منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.