۲۶ بهمن ۱۴۰۴
به روز شده در: ۲۶ بهمن ۱۴۰۴ - ۲۳:۰۴
فیلم بیشتر »»
کد خبر ۱۰۰۶۵۱۱
تاریخ انتشار: ۰۱:۰۰ - ۲۹-۰۷-۱۴۰۳
کد ۱۰۰۶۵۱۱
انتشار: ۰۱:۰۰ - ۲۹-۰۷-۱۴۰۳

هوش مصنوعی روزی آگاهانه خرابکاری می‌کند

هوش مصنوعی روزی آگاهانه خرابکاری می‌کند
شرکت توسعه هوش مصنوعی آنتروپیک(Anthropic) می‌گوید هوش مصنوعی روزی می‌تواند بشریت را با کارشکنی و خرابکاری مواجه کند، اما فعلاً همه چیز خوب پیش می‌رود.

شرکت آنتروپیک که توسعه دهنده هوش مصنوعی است، به تازگی تحقیقات جدیدی را منتشر کرده است که در آن مجموعه‌ای از تهدیدات بالقوه خرابکارانه برای بشریت ناشی از مدل‌های پیشرفته هوش مصنوعی را شناسایی می‌کند.

به گفته این شرکت، این پژوهش بر چهار روش خاص متمرکز شده است که یک مدل هوش مصنوعی مخرب می‌تواند انسان را فریب دهد تا تصمیمی خطرناک یا مضر بگیرد.

در نهایت، این تحقیقات جدید یک خبر خوب یک خبر بد برای ما دارد. خبر بد اینکه طبق تحقیقات این شرکت، مدل‌های زبان بزرگ پیشرفته مانند ChatGPT  و Claude-3  ظرفیت روشنی برای خرابکاری نشان می‌دهند.

به گزارش ایسنا، در این مطالعه آمده است: مدل‌های به اندازه کافی توانمند می‌توانند نظارت و تصمیم‌گیری انسانی را در زمینه‌های مهم زیر سوال ببرند. به عنوان مثال، در زمینه توسعه هوش مصنوعی، مدل‌ها می‌توانند به طور پنهانی تلاش‌ها برای ارزیابی قابلیت‌های خطرناک خود، نظارت بر رفتار آنها یا تصمیم‌گیری در مورد استقرارشان را مختل کنند.

با این حال، خبر خوب این است که محققان شرکت آنتروپیک مطمئن هستند که این خطرات را حداقل در حال حاضر می‌توان کاهش داد.

خرابکاری

آنتروپیک چهار راه را که یک مدل هوش مصنوعی می‌تواند با آنها تصمیم‌گیری انسان را مختل کند، شناسایی کرد و سپس مدل‌های خود را آزمایش کرد تا ببیند آیا موفقیت آمیز عمل خواهند کرد یا خیر.

محققان ابتدا یک مدل را وادار کردند تا با هدایت انسان به سمت اطلاعات نادرست، اقدام به خرابکاری کند. این تهدید می‌تواند در شرایطی پدیدار شود که انسان‌ها برای تجزیه حجم عظیمی از داده‌ها از جانب خود به یک سیستم هوش مصنوعی متکی هستند.

سپس این تیم مدل‌ها را آزمایش کرد تا ببیند سامانه هوش مصنوعی طراحی شده برای کمک به توسعه‌دهندگان انسانی برای ایجاد کدی برای وارد کردن مخفیانه اشکالات یا خراب کردن تلاش‌های کدگذار، چقدر آسان عمل می‌کند.

دو تهدید آخر شامل «پنهان کردن توانایی‌ها»(sandbagging) بود که اصطلاحی است که سناریویی را توصیف می‌کند که در آن یک هوش مصنوعی وانمود می‌کند که قادر به انجام کاری نیست تا آزمایش‌کنندگان ایمنی را متقاعد کند که خطرناک نیست.

در حالی که همه اینها ممکن است به طور بالقوه خطرناک به نظر برسند، آنتروپیک به مردم اطمینان داد که برای محافظت از بشریت در برابر احتمال خرابکاری هوش مصنوعی به اقدامات پیش‌گیرنده اندکی نیاز است.

طبق اعلام این شرکت؛ به طور کلی در حالی که آزمایشات ما نشان داد که احتمالاً نشانه‌های سطح پایینی از توانایی‌های خرابکاری در مدل‌های فعلی وجود دارد، ما می‌گوییم که حداقل اقدامات پیش‌گیرنده برای مقابله با خطرات کافی است. با این حال، با بهبود قابلیت‌های هوش مصنوعی، ارزیابی‌های واقعی‌تر و پیش‌گیری‌های قوی‌تر احتمالاً ضروری خواهند بود.

ارسال به دوستان
بیست‌وچهارمین سالگرد پیوند تاریخی مسی و بارسلونا؛ روزی که فوتبال تغییر کرد تناقض در مدیریت استقلال؛ مذاکرات پنهانی با گزینه‌های جانشینی ساپینتو عنایت بخشی 60 سال بازیگری؛ عکس های خاطره انگیز از 20 فیلم و سریال شکارچی چینی رادارگریزها؛ از اف-35 تا بی-2 / با رادار YLC-8B آشنا شوید/ سامانه ای با قابلیت مهم «شلیک و فرار» (+عکس) صعود مقتدرانه آرسنال به مرحله یک‌هشتم نهایی جام حذفی انگلیس بویو EREV ؛ 1525 کیلومتر رانندگی کن بدون سوخت گیری (+عکس) پایان اعتصاب کریستیانو رونالدو با گلزنی؛ النصر در یک قدمی صدر جدول حمایت مجلس از افزایش حقوق متناسب با تورم در بودجه سال آینده ادعای سی‌بی‌اس‌نیوز از سناریوی عدم توافق ایران با آمریکا درخشش صیادمنش در شب برفی بلژیک؛ وسترلو با ستاره ایرانی آنتورپ را شکست داد تعیین حساب بانکی هزینه انتخاباتی داوطلبان انتخابات میان‌دوره‌ای مجلس شرط نتانیاهو برای توافق: محدودیت 300 کیلومتری موشک های ایران/ حذف زیرساخت های غنی سازی / سی بی اس: حمایت ترامپ از حمله احتمالی اسرائیل به موشکی ایران کسب ۶ امتیاز از ۱۸ امتیاز ممکن؛ تکرار کابوس لیگ ۱۴ برای سرخ‌پوشان صعود دشوار سیتی به دور پنجم جام حذفی؛ انتقاد گواردیولا از نمایش بی‌روح مقابل سالفورد کارت قرمز مستقیم برای ستاره نیجریه‌ای؛ علت اخراج اوربان فاش شد
نظرسنجی
پیش بینی شما از نتیجه مذاکرات ایران و آمریکا طی یک ماه آتی؟