آیا هوش مصنوعی نژادپرست است؟
دانش
بزرگنمايي:
راه ترقی - فارس /در پس پردهی کُدهایی که هوش مصنوعی را رهبری میکنند، چیزی در حال تکرار است؛ چیزی که حتی از انسان هم خطرناکتر شده. آیا حاضریم با این حقیقت روبرو شویم؟
فرض کنید برای گرفتن وام، فقط چون پوستتان تیره است رد میشوید؛ یا رزومهتان حتی باز نمیشود، فقط چون زن هستید. این بار مقصر نه بانک است و نه مدیر منابع انسانی، مقصر یک هوش مصنوعی است!اگر باور دارید هوش مصنوعی بیطرف است، این گزارش را نخوانید!
این حقیقت را با تمام وجودتان قبول کنید!
در سالهای اخیر، بحثهای عمومی درباره هوش مصنوعی (AI) با عباراتی چون «انقلابی در حال وقوع»، «تهدیدی جهانی» یا «فرصتی برای نجات بشر» اشباع شدهاند.بسیاری از ما آن را بهعنوان یک نیروی بیگانه، غیرانسانی و مستقل در نظر میگیریم که در حال ورود به زندگیمان است؛ نیرویی که سبک کار، ارتباطات و حتی درک ما از خودمان را تغییر میدهد.اما در میان این هیاهو، یک حقیقت کلیدی گم شده است: ما تنها تماشاگر نیستیم؛ ما خالقان این فناوری هستیم!در واقع، هر سیستم هوش مصنوعی یک آینه است؛ آینهای که با دقتی بیرحمانه، ارزشها، تعصبات و اولویتهای ما را بازتاب میدهد.
بازار


هوش مصنوعی نژادپرست؟!
بیایید نگاهی به یکی از معروفترین موارد بیعدالتی بیندازیم!در سال 2018، آمازون ابزار هوش مصنوعی خود را برای استخدام کنار گذاشت؛ چرا؟ چون این سیستم در فرآیند استخدام، متقاضیان زن را نادیده میگرفت!این الگوریتم عمداً جنسیتزده نبود. مشکل آنجا بود که دادههای آموزشیاش شامل سوابق استخدامی شرکت در یک دهه گذشته بود.دادههایی که عمدتاً مردان را ترجیح میدادند. الگوریتم فقط یاد گرفت همان تعصبات قدیمی را بازتولید کند.اما این تنها یک مثال نیست. طبق تحقیقی از دانشگاه UC Berkeley که روی بیش از 50 میلیون درخواست وام مسکن در ایالات متحده انجام شد، الگوریتمهای وامدهی اغلب به متقاضیان سیاهپوست و لاتینتبار شرایط نامطلوبتری پیشنهاد میکردند، حتی زمانی که امتیاز اعتباری آنها برابر بود.این تعصبها، میراثی از دههها تبعیض سیستماتیک در صنعت مالی هستند که حالا در زبان ماشین بازتعریف شدهاند.

الگوریتمهایی با چشمان بسته
در حوزه آموزش، مطالعات متعددی نشان دادهاند که سیستمهای نمرهدهی خودکار، بهویژه آنهایی که با هوش مصنوعی کار میکنند، تمایل دارند دانشآموزان از طبقات اقتصادی بالا را بهتر ارزیابی کنند.مقالهای در سال 2021 در مجله Journal of Educational Data Mining گزارش داد که در 45٪ موارد، الگوریتمها به نوشتههای یکسان نمره متفاوت دادهاند، فقط به خاطر زمینه اقتصادی دانشآموزان.در بخش بهداشت نیز، الگوریتمهای تشخیصی در برخی کشورها، احتمال بیشتری برای اشتباه در تشخیص بیماری در بیماران اقلیت نشان دادهاند.مطالعهای در سال 2019 در مجله «ساینس (Science)» که بر بیش از 200 میلیون بیمار در ایالات متحده تمرکز داشت، مشخص کرد که یک الگوریتم معروف به طور سیستماتیک میزان نیاز به مراقبت پزشکی را در بیماران سیاهپوست کمتر از واقعیت ارزیابی میکرد.

چرا آینه را مقصر بدانیم وقتی صورت ماست که ترک خورده؟!
وقتی فناوری پیشبینی جرم، معروف به «پلیس پیشگو»، بیشتر تمرکز خود را روی مناطق کمدرآمد یا دارای جمعیت اقلیت میگذارد، این بهخاطر دادههایی است که بر مبنای سابقههای جرم گذشته ساخته شدهاند.اگر جرمی در گذشته بیشتر در یک منطقه گزارش شده، الگوریتم همان را بازتولید میکند. در واقع، پلیس نه بر اساس آینده، بلکه بر اساس حافظهای تبعیضآلود از گذشته عمل میکند.
ما چه چیزی را به مدلها یاد میدهیم؟
هر کلیک، هر سرچ، هر انتخاب، حتی هر انصراف، به الگوریتمها چیزی میآموزد. وقتی ما نگران نظارت دیجیتال هستیم اما با رضایت، مکان و علایق خود را به اپلیکیشنها میدهیم، ما در حال آموزش هستیم: آموزش اینکه حریم خصوصیمان قابل معامله است.تحقیقی در سال 2023 در پایگاه اطلاعاتی Pew Research Center نشان میدهد که 61٪ از بزرگسالان آمریکایی میدانند که حریم خصوصی خود را در قبال خدمات رایگان از دست میدهند، اما همچنان به این روند ادامه میدهند.ما به دنبال اطلاعات درست هستیم، اما محتوای وایرال را ترجیح میدهیم. این تناقضها، دقیقاً همان چیزیاند که مدلهای هوش مصنوعی از ما میآموزند.
آیندهای انسانی یا ماشینی؟ به دادههای شما بستگی دارد!
در حالی که غولهای فناوری تلاش میکنند تا الگوریتمها را «اخلاقمحور» کنند، برخی شرکتها رویکردهای تازهای در پیش گرفتهاند.برای مثال، مایکروسافت و گوگل در حال توسعه چارچوبهایی هستند که نه فقط الگوریتمها، بلکه کیفیت و تعادل دادههای آموزشی را نیز ارزیابی میکنند. این حرکات، امیدبخشاند؛ اما کافی نیستند.تا زمانی که AI با دادههای انسانی آموزش ببیند، انسان هم باید خود را آموزش دهد. ما باید مسئولیت ردپای دیجیتال خود را بپذیریم!اگر من ادعا کنم که به ارتباطات انسانی اهمیت میدهم، اما بیشتر وقتم را در شبکههای اجتماعی بگذرانم، الگوریتم نتیجهگیری درستی خواهد داشت: من ترجیح میدهم تنها باشم و تعاملاتم سطحی باشند. اگر بگویم به صداقت اهمیت میدهم اما اخبار جعلی را به اشتراک بگذارم، الگوریتمها همین پیام را خواهند گرفت.
کدامیک از ما در آینه مینگرد؟
هوش مصنوعی صرفاً آینده را پیشبینی نمیکند؛ بلکه گذشته ما را بازپخش میکند و شخصیت ما را بازتاب میدهد. و این بازتاب، گاه بیش از حد شفاف و ناخوشایند است.در جهانی که بهسرعت در حال اتکای بیشتر به الگوریتمهاست، شاید مهمترین سؤال این نباشد که «AI چه خواهد شد»، بلکه این است که: «ما که خواهیم بود؟»
-
شنبه ۳۰ فروردين ۱۴۰۴ - ۰۸:۵۴:۱۱
-
۴۳ بازديد
-

-
راه ترقی
لینک کوتاه:
https://www.rahetaraghi.ir/Fa/News/1064337/