تغییر سیاست گوگل در استفاده تسلیحاتی و نظارتی از هوش مصنوعی
چهارشنبه 17 بهمن 1403 - 14:44:21
|
|
راه ترقی - ایسنا / شرکت گوگل یک تغییر اساسی در «اصول استفاده از هوش مصنوعی» خود ایجاد کرده است. گوگل از زمان اولین عرضه هوش مصنوعی خود در سال 2018 یکی از اساسیترین تغییرات را در اصول هوش مصنوعی ایجاد کرده است. این غول موتورهای جستجوگر، سند اصول خود را ویرایش کرده تا تعهداتی را که داده بود، حذف کند. گوگل که قول داده بود ابزارهای هوش مصنوعی را برای استفاده در سلاح یا فناوری نظارتی «طراحی یا مستقر» نکند، این اصل را تغییر داده است. پیش از این، این دستورالعمل در بخشی با عنوان «برنامههایی که ما دنبال نمیکنیم» قرار داشت که در نسخه فعلی سند وجود ندارد. به نقل از انگجت، اکنون بخشی با عنوان «توسعه و استقرار مسئولانه» وجود دارد. در آنجا، گوگل بیان میدارد که «نظارت انسانی مناسب، بررسی دقیق و مکانیسمهای بازخوردی را برای همسویی با اهداف کاربر، مسئولیتهای اجتماعی و اصول پذیرفتهشده حقوق بینالملل و حقوق بشر اجرا خواهد کرد». این تعهد بسیار کلیتر از تعهداتی است که این شرکت در نسخه قبلی اصول هوش مصنوعی ارائه داده بود. به عنوان مثال، در رابطه با سلاحها، این شرکت قبلا گفته بود که هوش مصنوعی را برای استفاده در «سلاحها یا سایر فناوریهایی که هدف یا پیادهسازی آنها باعث ایجاد یا تسهیل آسیب مستقیم به افراد میشود» طراحی نخواهد کرد. در مورد ابزارهای نظارتی هوش مصنوعی، این شرکت گفت که فناوریهایی را توسعه نخواهد داد که «هنجارهای پذیرفته شده بینالمللی» را نقض کند. دمیس حسابیس (Demis Hassabis)، مدیرعامل دیپ مایند (DeepMind) و جیمز مانیکا (James Manyika)، معاون ارشد تحقیقات، آزمایشگاهها، فناوری و جامعه در گوگل، میگویند که ظهور هوش مصنوعی به عنوان یک «فناوری همهمنظوره» نیاز به تغییر سیاست داشته است. این دو نفر نوشتند: ما معتقدیم دموکراسی باید در توسعه هوش مصنوعی پیشرو باشد و ارزشهای اصلی مانند آزادی، برابری و احترام به حقوق بشر را شامل شوند و ما معتقدیم که شرکتها، دولتها و سازمانهایی که این ارزشها را در نظر دارند، باید با یکدیگر همکاری کنند تا هوش مصنوعی ایجاد کنند که از مردم محافظت کند، رشد جهانی را ارتقاء دهد و از امنیت ملی حمایت کند. با هدایت اصول هوش مصنوعی، ما به تمرکز بر تحقیقات و کاربردهای هوش مصنوعی که با مأموریت، تمرکز علمی و حوزههای تخصصی ما همسو هستند، ادامه خواهیم داد و با اصول پذیرفتهشده حقوق بینالملل و حقوق بشر سازگار میمانیم و همیشه ارزیابی میکنیم که مزایا بر خطرات احتمالی بیشتر است یا خیر. هنگامی که گوگل برای اولین بار، اصول هوش مصنوعی خود را در سال 2018 منتشر کرد، پس از پروژه ماون (Maven) این کار را انجام داد. این یک قرارداد جنجالی دولتی بود که اگر گوگل تصمیم میگرفت آن را تمدید کند، این شرکت نرمافزار هوش مصنوعی را برای تجزیه و تحلیل فیلم پهپادها در اختیار وزارت دفاع قرار میداد. دهها کارمند گوگل در اعتراض به این قرارداد شرکت را ترک کردند و هزاران نفر دیگر در مخالفت با آن، طوماری امضا کردند. زمانی که گوگل در نهایت دستورالعملهای جدید خود را منتشر کرد، ساندار پیچای، مدیر عامل شرکت، به کارکنان گفت که امیدوار است در طول زمان مقاومت کنند. با این حال تا سال 2021 گوگل دوباره آغاز به پیگیری قراردادهای نظامی کرد.
http://www.RaheNou.ir/fa/News/1026532/تغییر-سیاست-گوگل-در-استفاده-تسلیحاتی-و-نظارتی-از-هوش-مصنوعی
|