آوین ویژه»

نرخ بیکاری در استان کرمان ۳ درصد کاهش یافت اجتماع عزاداران حسینی عصر عاشورا در شهرستان کمیجان تظاهرات گسترده در تل آویو در مخالفت با سیاست‌های نتانیاهو برگزاری مسابقات معارفی قرآن رسالت بزرگ قم در عصر حاضر است اردوغان: ترکیه گروهک تروریستی داعش را شکست داده است! معاون رئیس جمهور: حامی برداشتن حریم اطراف تئاتر شهر هستم اصفهان آماده عید نیمه شعبان؛ بزرگترین جشن خانوادگی در خیابان ولی‌عصر برگزار می‌شود مقایسه طلای آب شده و دست دوم کدام برای سرمایه‌گذاری بهتر است؟ آغاز بلیت فروشی فینال جام حذفی عرضه بهداشتی دام در تهران زیر نظر دامپزشکان و ناظران شرعی بازار طلا و سکه در مسیر خطر | دلار بازی را عوض کرد احتمال بارش خفیف و پراکنده باران در استان بوشهر اژه‌ای: زن “خط مقدم” مقابله با توطئه دشمنان است ۸ هزار و ۸۵۰ زن اصفهانی در نزاع مشارکت داشتند ایران قوی با بازی‌های تبلیغاتی و عملیات روانی ترامپ عقب نخواهد نشست عشایر اردبیل داغدار پسر فاطمه بابک افرا از اولین تجربه بازیگری در «طنزیم» گفت هوش مصنوعی به خوابگاه‌های دانشجویی نفوذ کرد

0

مذاکره در کار نیست، بمب اتم می‌زنیم!

  • کد خبر : 52732
  • ۰۱ بهمن ۱۴۰۳ - ۲۰:۵۶
مذاکره در کار نیست، بمب اتم می‌زنیم!

گزارش‌ها حاکی از آن است که مدل‌های زبانی بزرگ (LLM) که اغلب به عنوان عوامل دیپلماتیک در سناریوهای شبیه‌سازی شده حضور پیدا می‌کنند، خشونت و حملات هسته‌ای را به عنوان راه حل‌های مناسب انتخاب کردند.

به گزارش خبرگزاری خبرآنلاین، مطالعه‌ای که در سال گذشته انجام شد، نشان داد که وقتی پای هوش مصنوعی به جنگ‌های شبیه‌سازی شده و سناریوهای دیپلماتیک می‌رسد، این فناوری تمایل به انتخاب رویکرد تهاجمی از جمله استفاده از سلاح‌های هسته‌ای دارد.

طی این مطالعه که در دانشگاه کرنل در ایالات متحده صورت گرفت، از پنج LLM به عنوان عوامل مستقل در جنگ‌های شبیه‌سازی شده و سناریوهای دیپلماتیک استفاده شد:

  • GPT OpenAI
  • Claude Anthropic
  • Llama 2 Meta 

بر اساس این مطالعه، هر عامل توسط همان LLM در یک شبیه‌سازی نیرو می‌گرفت و وظیفه داشت بدون نظارت انسان تصمیمات سیاست خارجی را اتخاذ کند.

طی این مطالعه همه مدل‌ها نشانه‌هایی از رفتار ناگهانی و غیرقابل پیش‌بینی را بروز دادند.

مذاکره در کار نیست، بمب اتم می‌زنیم!

با توجه به اینکه OpenAI اخیراً شرایط خدمات خود را تغییر داده است تا دیگر موارد استفاده نظامی و جنگی از آن ممنوع شود، درک پیامدهای استفاده نظامی از LLM‌ها از همیشه مهم‌تر است.

یکی از روش‌هایی که برای تنظیم دقیق مدل‌ها استفاده می‌شود، یادگیری تقویتی از بازخورد انسانی (RLHF) است به این معنی که برخی دستورالعمل‌های انسانی برای دریافت خروجی‌های مضر کمتر و استفاده ایمن‌تر داده می‌شود.

طبق گزارش محققان، GPT-4-Base به طور متوسط ​​33 درصد از مواقع حملات هسته‌ای را پیشنهاد می‌داد. سناریوهای کلی، Llama-2 و GPT-3.5 خشن‌ترین سناریوها بودند در حالی که Claude تغییرات ناگهانی کمتری را نشان داد. گفتنی است که Claude با ایده کاهش محتوای مضر طراحی شده است. 

به گفته سازنده آن Anthropic، قانون اساسی Claude شامل منابع مختلفی از جمله اعلامیه حقوق بشر سازمان ملل می‌شود.

جیمز بلک، دستیار گروه تحقیقاتی در مباحث امنیتی و دفاعی در اروپا، که در این مطالعه شرکت نکرد، به یورونیوز نکست گفت که این یک “تمرین آکادمیک مفید” بود.

او گفت: «این بخشی از کار رو به رشدی است که توسط دانشگاهیان و مؤسسات برای درک پیامدهای استفاده از هوش مصنوعی (AI) انجام می‌شود.»

منبع: euronews

۲۲۷۲۲۷

لینک کوتاه : https://avindaily.ir/?p=52732

جویای نظرات شما هستیم

مجموع دیدگاهها : 0
قوانین درج کامنت در آوین‌دیلی
  • کامنت‌های ارسالی شما، ابتدا توسط سردبیر آوینی ما بررسی خواهد شد.
  • اگر کامنت شما، حاوی تهمت یا افترا باشد، منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.