ساتیا نادلا نگران تبعیض و جانب‌داری در هوش مصنوعی آینده

زمان مورد نیاز برای مطالعه: ۱ دقیقه
ساتیا نادلا

ساتیا نادلا هشدار داده که نرم‌افزارهای هوشمند آینده شاید بتوانند تبعیض قایل شوند. در واقع الگوریتم‌های جانب‌دارانه از همین حالا هم روی زندگی ما تاثیر می‌گذراند.

ساتیا نادلا، مدیر عامل مایکروسافت درباره‌ی سلطه‌ی هوش مصنوعی بر زندگی ما ابراز نگرانی کرده است. او اخیرا به فعالان حوزه‌ی صنعت کامپیوتر توصیه کرده که به فکر طراحی نرم‌افزارهای هوشمندی باشند که به انسان‌ها احترام می‌گذارند. او در مجله‌ی اینترنتی Slate نوشته: «حوزه‌ی تکنولوژی نباید ارزش‌ها و فضیلت‌های آینده‌ی هوش مصنوعی را تحمیل کند.»

نادلا می‌گوید نرم‌افزار هوشمند باید طوری طراحی شود که بتوانیم در نحوه‌ی ساز و کارش بازبینی کنیم و اجازه ندهیم علیه بعضی از افراد تبعیض قایل شود یا به شکل ناپسندی داده‌های شخصی استفاده کند.

این نگرانی‌ها مهم و منطقی هستند، اما رهبران حوزه‌ی تکنولوژی مدت‌هاست که درباره‌ی آنها صحبت می‌کنند. شواهد زیادی وجود دارد که نشان می‌دهد از همین حالا الگوریتم‌ها و نرم‌افزارها با جانب‌داری‌ها نگران‌کننده‌ای به زندگی روزمره‌ی ما شکل می‌دهند.

کمیسیون تجارت فدرال در تحقیقاتی که انجام داده، پی برده که تبعیضات نژادی و اقتصادی دوران قبل از اینترنت دوباره ظاهر شده‌اند و آن را در سیستم‌هایی می‌بینیم که تبلیغات هدفمند و دیگر خدماتی آنلاین را مدیریت می‌کنند. در ایالت ویسکانسین آمریکا می‌خواهند به کمک سیستم پیش‌بینی کنند که آیا یک مجرم باز هم مرتکب جرم می‌شود یا خیر؛ دادگاه با استفاده از نتایج این سیستم حکم زندان مجرم را تعیین می‌کند.

بدیهی است بعضی از مشکلاتی که ساتیا نادلا را نگران کرده‌، هم‌اکنون وجود دارند. «کیت کرافورد»، یکی از محققان مایکروسافت مشکل جانب‌داری الگوریتمی را در یک جمله خلاصه کرده است: «شاید نرم‌افزار از همین حالا نابرابری را در محل کار، خانه و سیستم‌های قانونی و قضایی شدیدتر می‌کند.»

نادلا نوشته‌اش درباره‌ی هوش مصنوعی را این‌گونه جمع‌بندی می‌کند: «مهم‌ترین قدم بعدی ما برای هوش مصنوعی این است که یک چارچوب اخلاقی و همدلانه برای طراحی آن تعریف کنیم.»

منبع: MIT Technology Review



برچسب‌ها :
دیدگاه شما

loading...
بازدیدهای اخیر
بر اساس بازدیدهای اخیر شما
تاریخچه بازدیدها
مشاهده همه
دسته‌بندی‌های منتخب برای شما