Openai می گوید اگر یک رقیب در معرض خطر AI خود باشد ، می تواند محافظت از مدل AI را تنظیم کند

[ad_1] تبلیغ Openai گفت که اگر یک شرکت رقیب یک مدل هوش مصنوعی پرخطر را بدون محافظت ، در نظر بگیرد ، تنظیم الزامات ایمنی خود را در نظر خواهد گرفت. Openai در گزارش آمادگی خود در چارچوب آمادگی خود نوشت که اگر یک شرکت دیگر مدلی را منتشر کند که تهدیدی را ایجاد کند
[ad_1]
Openai گفت که اگر یک شرکت رقیب یک مدل هوش مصنوعی پرخطر را بدون محافظت ، در نظر بگیرد ، تنظیم الزامات ایمنی خود را در نظر خواهد گرفت.
Openai در گزارش آمادگی خود در چارچوب آمادگی خود نوشت که اگر یک شرکت دیگر مدلی را منتشر کند که تهدیدی را ایجاد کند ، می تواند پس از “دقیق” تأیید کند که “چشم انداز خطر” تغییر کرده است.
این سند توضیح می دهد که چگونه شرکت در برابر خطرات فاجعه آمیز ناشی از مدل های هوش مصنوعی پیگیری ، ارزیابی ، پیش بینی و محافظت می کند.
Openai در یک پست وبلاگ منتشر شده در روز سه شنبه نوشت: “اگر یک توسعه دهنده Frontier AI دیگر یک سیستم پرخطر را بدون ضمانت های قابل مقایسه آزاد کند ، ممکن است ما نیازهای خود را تنظیم کنیم.”
“با این حال ، ما ابتدا با دقت تأیید می کنیم که چشم انداز خطر در واقع تغییر کرده است ، به طور عمومی تصدیق می کند که ما یک تنظیم انجام می دهیم ، ارزیابی می کنیم که تنظیم به طور معناداری خطر کلی آسیب شدید را افزایش نمی دهد ، و هنوز هم در یک سطح محافظتر محافظت می کند.”
قبل از انتشار یک الگوی برای عموم مردم ، Openai ارزیابی می کند که آیا با شناسایی خطرات قابل قبول ، قابل اندازه گیری ، جدید ، شدید و غیر قابل تحمل و حفاظت از آنها در برابر آنها ، می تواند باعث آسیب شدید شود. سپس این خطرات را به عنوان کم ، متوسط ، زیاد یا بحرانی طبقه بندی می کند.
برخی از خطرات این شرکت که قبلاً ردیابی می کند ، قابلیت های مدل های آن در زمینه های زیست شناسی ، شیمی ، امنیت سایبری و بهبود خود آن است.
این شرکت گفت که همچنین خطرات جدیدی را ارزیابی می کند ، از جمله اینکه آیا مدل هوش مصنوعی آنها می تواند برای مدت طولانی بدون درگیری انسان ، تکثیر خود و چه تهدیدی در زمینه های هسته ای و رادیولوژی انجام دهد.
“خطرات اقناع” ، مانند نحوه استفاده از چتپ برای مبارزات انتخاباتی سیاسی یا لابی کردن در خارج از چارچوب انجام می شود و در عوض از طریق آن مورد بررسی قرار می گیرد مشخصات مدل، سندی که رفتار چتپپ را تعیین می کند.
“بی سر و صدا تعهدات ایمنی را کاهش می دهد”
استیون آدلر ، محقق سابق Openai ، گفت x به روزرسانی های گزارش آمادگی شرکت نشان می دهد که “بی سر و صدا تعهدات ایمنی خود را کاهش می دهد”.
وی در پست خود به تعهد دسامبر سال ۲۰۲۳ توسط این شرکت برای آزمایش “نسخه های تنظیم شده خوب” از مدل های هوش مصنوعی خود اشاره کرد ، اما خاطرنشان کرد که OpenAi اکنون فقط به آزمایش مدل هایی که پارامترهای آموزش دیده یا “وزن” آنها منتشر می شود ، تغییر می کند.
وی گفت: “مردم می توانند کاملاً مخالف باشند که آیا مدل های آزمایشی مورد نیاز است ، و بهتر است که Openai تعهد را حذف کند تا اینکه آن را حفظ کند و فقط دنبال نشود.”
“اما در هر صورت ، من دوست دارم Openai در مورد حمایت از این تعهد قبلی واضح تر باشد.”
این خبر پس از انتشار Openai خانواده جدیدی از مدل های AI به نام GPT-4.1 این هفته منتشر شده است ، بنا بر گزارش ها بدون کارت سیستم یا گزارش ایمنی Euronews Next از OpenAI در مورد گزارش ایمنی سؤال کرده است اما در زمان انتشار پاسخی دریافت نکرده است.
این خبر پس از ۱۲ کارمند سابق Openai ارسال شده است مختصر هفته گذشته در پرونده الون مسک علیه اوپای به وجود آمد ، که ادعا می کند تغییر به یک شرکت انتفاعی می تواند منجر به کاهش ایمنی شود.
[ad_2]
لینک منبع
برچسب ها :
ناموجود- نظرات ارسال شده توسط شما، پس از تایید توسط مدیران سایت منتشر خواهد شد.
- نظراتی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
- نظراتی که به غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نخواهد شد.
ارسال نظر شما
مجموع نظرات : 0 در انتظار بررسی : 0 انتشار یافته : ۰