راه حل جدید «اوپنایآی» برای کاهش استفاده مخرب از مدلهای هوش مصنوعی
دانش
بزرگنمايي:
راه ترقی - ایسنا /دسترسی به مدلهای هوش مصنوعی آینده «اوپنایآی» ممکن است نیازمند یک شناسه تأییدشده باشد.
اطلاعات صفحه پشتیبانی که هفته گذشته در وبسایت «اوپنایآی»(OpenAI) منتشر شدند، نشان میدهند این شرکت ممکن است به زودی از سازمانها بخواهد تا فرآیند تأیید هویت را برای دسترسی به برخی مدلهای هوش مصنوعی آینده تکمیل کنند.
به نقل از تک کرانچ، در صفحه پشتیبانی آمده است که فرآیند تأیید به نام سازمان، روش جدیدی برای توسعهدهندگان به منظور باز کردن قفل دسترسی به پیشرفتهترین مدلها و قابلیتها در پلتفرم اوپنایآی است. راستیآزمایی به یک شناسه دولتی از یکی از کشورهایی نیاز دارد که توسط API اوپنایآی پشتیبانی میشود. به گفته اوپنایآی، شناسه تنها میتواند هر 90 روز یک سازمان را تأیید کند و همه سازمانها واجد شرایط تأیید نیستند.
در صفحه پشتیبانی آمده است: ما در اوپنایآی مسئولیت خود را جدی میگیریم تا اطمینان حاصل کنیم که هوش مصنوعی هم به طور گسترده در دسترس است و هم با خیال راحت استفاده میشود. متأسفانه، اقلیت کوچکی از توسعهدهندگان عمدا از APIهای اوپنایآی در جهت مخالف خط مشی ما استفاده میکنند. ما در حال اضافه کردن فرآیند تأیید برای کاهش استفاده ناامن از هوش مصنوعی هستیم و در عین حال به ارائه مدلهای پیشرفته برای جامعه توسعهدهندگان گستردهتر ادامه میدهیم.
این فرآیند جدید تأیید میتواند برای تقویت امنیت در محصولات اوپنایآی به دلیل پیچیدهتر شدن و توانمندتر شدن آنها باشد. اوپنایآی چندین گزارش را درباره تلاشهای خود برای شناسایی و از مدلهای این شرکت منتشر کرده است.
همچنین، این کار ممکن است با هدف جلوگیری از سرقت IP صورت گرفته باشد. براساس گزارش بلومبرگ در اوایل سال جاری، اوپنایآی در حال بررسی این موضوع بود که آیا یک گروه مرتبط با شرکت چینی «دیپسیک»(DeepSeek) در اواخر سال 2024 مقادیر زیادی داده را احتمالا برای آموزش مدلهای خود از طریق API آن استخراج کرده و شرایط اوپنایآی را نقض کرده است یا خیر. اوپنایآی تابستان گذشته دسترسی به خدمات خود را در چین مسدود کرد.
-
دوشنبه ۲۵ فروردين ۱۴۰۴ - ۱۳:۰۳:۱۵
-
۴۶ بازديد
-

-
راه ترقی
لینک کوتاه:
https://www.rahetaraghi.ir/Fa/News/1060781/