راه ترقی
تغییر سیاست گوگل در استفاده تسلیحاتی و نظارتی از هوش مصنوعی
چهارشنبه 17 بهمن 1403 - 14:44:21
راه ترقی - ایسنا / شرکت گوگل یک تغییر اساسی در «اصول استفاده از هوش مصنوعی» خود ایجاد کرده است.
گوگل از زمان اولین عرضه‌ هوش مصنوعی خود در سال 2018 یکی از اساسی‌ترین تغییرات را در اصول هوش مصنوعی ایجاد کرده است. این غول موتورهای جستجوگر، سند اصول خود را ویرایش کرده تا تعهداتی را که داده بود، حذف کند. گوگل که قول داده بود ابزارهای هوش مصنوعی را برای استفاده در سلاح یا فناوری نظارتی «طراحی یا مستقر» نکند، این اصل را تغییر داده است. پیش از این، این دستورالعمل‌ در بخشی با عنوان «برنامه‌هایی که ما دنبال نمی‌کنیم» قرار داشت که در نسخه فعلی سند وجود ندارد.
به نقل از انگجت، اکنون بخشی با عنوان «توسعه و استقرار مسئولانه» وجود دارد. در آنجا، گوگل بیان می‌دارد که «نظارت انسانی مناسب، بررسی دقیق و مکانیسم‌های بازخوردی را برای همسویی با اهداف کاربر، مسئولیت‌های اجتماعی و اصول پذیرفته‌شده حقوق بین‌الملل و حقوق بشر اجرا خواهد کرد».
این تعهد بسیار کلی‌تر از تعهداتی است که این شرکت در نسخه قبلی اصول هوش مصنوعی ارائه داده بود. به عنوان مثال، در رابطه با سلاح‌ها، این شرکت قبلا گفته بود که هوش مصنوعی را برای استفاده در «سلاح‌ها یا سایر فناوری‌هایی که هدف یا پیاده‌سازی آنها باعث ایجاد یا تسهیل آسیب مستقیم به افراد می‌شود» طراحی نخواهد کرد. در مورد ابزارهای نظارتی هوش مصنوعی، این شرکت گفت که فناوری‌هایی را توسعه نخواهد داد که «هنجارهای پذیرفته شده بین‌المللی» را نقض کند.
دمیس حسابیس (Demis Hassabis)، مدیرعامل دیپ مایند (DeepMind) و جیمز مانیکا (James Manyika)، معاون ارشد تحقیقات، آزمایشگاه‌ها، فناوری و جامعه در گوگل، می‌گویند که ظهور هوش مصنوعی به عنوان یک «فناوری همه‌منظوره» نیاز به تغییر سیاست داشته است.
این دو نفر نوشتند: ما معتقدیم دموکراسی‌ باید در توسعه هوش مصنوعی پیشرو باشد و ارزش‌های اصلی مانند آزادی، برابری و احترام به حقوق بشر را شامل شوند و ما معتقدیم که شرکت‌ها، دولت‌ها و سازمان‌هایی که این ارزش‌ها را در نظر دارند، باید با یکدیگر همکاری کنند تا هوش مصنوعی ایجاد کنند که از مردم محافظت کند، رشد جهانی را ارتقاء دهد و از امنیت ملی حمایت کند. با هدایت اصول هوش مصنوعی، ما به تمرکز بر تحقیقات و کاربردهای هوش مصنوعی که با مأموریت، تمرکز علمی و حوزه‌های تخصصی ما همسو هستند، ادامه خواهیم داد و با اصول پذیرفته‌شده حقوق بین‌الملل و حقوق بشر سازگار می‌مانیم و همیشه ارزیابی می‌کنیم که مزایا بر خطرات احتمالی بیشتر است یا خیر.
هنگامی که گوگل برای اولین بار، اصول هوش مصنوعی خود را در سال 2018 منتشر کرد، پس از پروژه ماون (Maven) این کار را انجام داد. این یک قرارداد جنجالی دولتی بود که اگر گوگل تصمیم می‌گرفت آن را تمدید کند، این شرکت نرم‌افزار هوش مصنوعی را برای تجزیه و تحلیل فیلم پهپادها در اختیار وزارت دفاع قرار می‌داد. ده‌ها کارمند گوگل در اعتراض به این قرارداد شرکت را ترک کردند و هزاران نفر دیگر در مخالفت با آن، طوماری امضا کردند. زمانی که گوگل در نهایت دستورالعمل‌های جدید خود را منتشر کرد، ساندار پیچای، مدیر عامل شرکت، به کارکنان گفت که امیدوار است در طول زمان مقاومت کنند.
با این حال تا سال 2021 گوگل دوباره آغاز به پیگیری قراردادهای نظامی کرد.

http://www.RaheNou.ir/fa/News/1026532/تغییر-سیاست-گوگل-در-استفاده-تسلیحاتی-و-نظارتی-از-هوش-مصنوعی
بستن   چاپ