هوش مصنوعی تشخیص جرم پلیس بریتانیا به سختی شکست خورد

۲۷ مرداد ۱۳۹۹ | ۲۲:۰۰ ۲۸ مرداد ۱۳۹۹ زمان مورد نیاز برای مطالعه: ۷ دقیقه
هوش مصنوعی

به گفته‌ی پلیس کشور بریتانیا،‌ یک سیستم بسیار پیشرفته‌ی مبتنی بر هوش مصنوعی که برای پیش‌بینی احتمال خشونت با چاقو و سلاح گرم طراحی شده بوده، مشکلاتی جدی داشته که آن را غیر قابل استفاده کرده است. خطای موجود در این سیستم به کاهش چشمگیر دقت منجر شده است، تا جایی که در نهایت تمام متخصصینی که آن را از نظر اخلاقی بررسی می‌کرده‌اند، استفاده از آن را نپذیرفته‌اند.

این سیستم پیش‌بینی که تحت عنوان «جدی‌ترین خشونت» یا به اختصار MSV شناخته می‌شود، بخشی از تلاش‌های تیم ملی راهکارهای تحلیل دیتا (NDAS) به حساب می‌آمد. وزارت کشور بریتانیا بودجه‌ای حداقل ۱۳ میلیون دلاری را طی دو سال اخیر در اختیار پروژه قرار داده بود و هدف، ساخت یک سیستم یادگیری ماشین بود که بتوان از آن در سراسر انگلیس و ولز استفاده کرد.

در نتیجه‌ی خطا در عملکرد MSV، پلیس بریتانیا توسعه سیستم پیش‌بینی را در فرم کنونی‌اش متوقف کرده است. این هوش مصنوعی هیچوقت در عملیات‌های پلیسی مورد استفاده قرار نگرفته و اصلا نتوانسته به مرحله‌ای برسد که قابل استفاده باشد. اما با تمام این اتفاقات، مباحثاتی هم پیرامون این موضوعات شکل گرفته که آیا احتمال دارد ابزارهای تشخیص جرم نسبت به اقلیت‌ها جهت‌گیری کنند؟ و آیا اصلا چنین ابزاری برای پلیس کارآمد تلقی می‌شود؟

ابزار MSV طراحی شده بود تا نخستین جرایم افراد مختلف با چاقو یا سلاح سرد را در دو سال آینده پیش‌بینی کند. افرادی که قبلا با نیروی پلیس دو شهر میدلندز غربی و یورک‌شایر غربی در ارتباط بوده‌اند، در این پروژه دخیل شدند و نوعی امتیاز ریسک به آن‌ها تعلق گرفت. هرچه امتیاز بالاتر باشد، به احتمال بیشتری آن شخص مرتکب یکی از این دو جرم خواهد شد.

در توسعه این سیستم از تاریخچه اطلاعات حدودا ۲.۴ میلیون نفر در دیتابیس میدلندز غربی و  ۱.۱ میلیون نفر در یورک‌شایر غربی استفاده شد و حاوی سوابق جرم و بازداشت، گزارش‌های امنیتی و دیتابیس کامپیوتر پلیس ملی بریتانیا بودند.

هوش مصنوعی تشخیص جرم

اما در حالی که NDAS شروع به «عملیاتی کردن» سیستم در ابتدای سال جاری میلادی کرد، مشکلات هم خودشان را نشان دادند. مستندات منتشر شده از سوی کمیته اخلاقی پلیس میدلندز غربی –که مسئول نظارت بر کارهای NDAS و همینطور کمک به توسعه سیستم است- نشان می‌دهد که هوش مصنوعی شامل یک «نقص» در کدنویسی بوده که باعث می‌شود با دقت قادر به پیش‌بینی جرایم نباشد.

یکی از سخنگویان NDAS می‌گوید که خطا در واقع یک مشکل در هضم اطلاعات بوده که در پروسه توسعه کشف شده است. جزییات بیشتری هم در این باره به اشتراک گذاشته نشده است. این سازمان در بیانیه خود اضافه می‌کند که «مشخص شده که با اطلاعاتی که اکنون برای تشخیص لحظه مداخله پیش از وقوع اولین جرم شخص با چاقو یا سلاح در اختیار داریم، چنین کاری با هیچ سطحی از دقت امکان‌پذیر نخواهد بود».

قبل از اینکه ارور کشف شود، NDAS مدعی شده بود که سیستم‌اش دقتی در حد ۷۵ درصد دارد. از میان ۱۰۰ نفری که گفته می‌شد ریسک بالای ارتکاب جرایم خشونت‌آمیز را به همراه می‌آورند، هوش مصنوعی ۵۴ نفر از آن‌ها را مظنون معرفی کرده بود. در یورک‌شایر غربی نیز گفته می‌شود که از لیست مشابهی شامل ۱۰۰ نفر، ۷۴ نفر از آن‌ها یک جرم جدی با چاقو یا سلاح مرتکب می‌شوند. بعد در ماه جولای NDAS گفت که «حالا می‌دانیم که سطح حقیقی دقت به شکل چشمگیری پایین‌تر است».

ملیسا همیلتون، دانشجوی حقوق و عدالت مجرمانه در دانشگاه سوری و کسی که اکنون به صورت متمرکز روی استفاده پلیس از ابزارهای پیش‌بینی پژوهش می‌کند عقیده دارد: «پیش‌بینی وقایع نادر به مراتب دشوارتر از وقایع معمولی است». همیلتون از بروز مشکل در دقت هوش مصنوعی متعجب نشده است. «درحالی که می‌دانیم ابزارهای شناسایی ریسک در حوزه‌های استحفاظی مختلف عملکردی یکسان ندارند، هیچوقت چنین سطحی از تفاوت را ندیده بودم. خصوصا وقتی که دارید درباره دو نقطه مختلف در یک کشور صحبت می‌کنید.» او اضافه می‌کند که تخمین‌های ابتدایی سیستم بیش از اندازه بالا بوده‌اند.

هوش مصنوعی تشخیص جرم

در نتیجه نقص به وجود آمده، NDAS به بازسازی هوش مصنوعی تشخیص جرم خود پرداخته و به این ترتیب، میزان دقت به شکل چشمگیری کاهش یافته. برای جرایم جدی که شامل چاقو یا اسلحه می‌شوند، میزان دقت به ۱۴ الی ۱۹ درصد در مدیلندز غربی و ۱۸ درصد در یورک‌شایر غربی رسید.

NDAS حالا پی برده که با حذف کردن بسیاری از متغیرهای ابتدایی که اصلا به این سیستم معنا می‌بخشیدند –مانند نخستین جرم، نوع سلاح و استفاده از سلاح- سیستم بازسازی شده به بیشترین میزان دقت خود دست یافته است. به صورت خلاصه، عملکرد ابتدایی اغراق‌آمیز بوده است. در بهترین حالت ممکن، این سیستم محدود می‌تواند در میدلندز غربی بین ۲۵ الی ۳۸ درصد دقت داشته باشد و در یورک‌شایر غربی بین ۳۶ الی ۵۱ درصد.

پروپوزال پلیس برای استفاده از این سیستم به اتفاق آرا رد شد. کمیته اخلاقی در ماه جولای گفت: «اطلاعات کافی راجع به این وجود ندارد که مدل پیشنهادی چطور به بهبود وضعیت تصمیم‌گیری‌ها راجع به جلوگیری از جرایم جوانان منجر خواهد شد». به این ترتیب، آن‌ها رای به این دادند که نیازی به توسعه هرچه بیشتر سیستم نیست. این کمیته که متشکل از گروهی از متخصصین داوطلب در حوزه‌های مختلف است گفت که درک نمی‌کند چرا دقت بازبینی شده باید کافی باشد و نسبت به چگونگی کارکرد سیستم پیش‌بینی هم ابراز نگرانی کرد.

نیک دیل، مدیر پروژه NDAS می‌گوید افراد پشت پروژه «موافق هستند که مدل نمی‌تواند در فرم کنونی‌اش به ادامه کار بپردازد» و می‌گوید آنچه تاکنون ساخته شده، پروژه‌ای آزمایشی بوده. «نمی‌توانیم با قطعیت بگوییم که مدل نهایی چه شکلی خواهد بود، اگر اصلا بتوانیم مدلی مناسب بسازیم. تمام کارهای ما به دقت از سوی کمیته اخلاقی بررسی می‌شود و نتیجه مشاهدات آن‌ها هم منتشر».

هوش مصنوعی تشخیص جرم

«مشکل اصلی برنامه فراتر از مسئله دقت است». این را نونو جوریرو، متخصص تکنولوژی در Privacy International می‌گوید: «اساس کردن مباحثبات بر میزان دقت، مشکل‌ساز خواهد بود. به خاطر اینکه ضعف‌های تکنولوژی در گذر زمان برطرف می‌شوند. حتی اگر الگوریتم، دقتی ۱۰۰ درصدی داشته باشد هم شاهد جهت‌گیری در سیستم خواهیم بود».

سیستم پیش‌بینی خشونت «بیشتر از ۲۰» فاکتور دارد که گفته می‌شد برای بررسی رفتارهای خطرناک آتی افراد ضروری هستند. از جمله این فاکتورها می‌توان به سن، مدت‌زمانی که از نخستین جرم می‌گذرد، ارتباط با دیگر افراد موجود در دیتا، میزان وخامت جرایم و بیشینه اشارات به چاقو در گزارش‌های امنیتی اشاره کرد. اطلاعات لوکیشن و قومیت افراد جایی در این اطلاعات نداشتند. اکثر این فاکتورها قرار بود عمق بیشتری به اطلاعات جدیدتر بدهند.

راشیدا ریچاردسون، دانشجوی مهمان مدرسه قانون راتجرز که به پژوهش روی مشکلات دیتا در سیستم‌های پیش‌بینی پلیسی پرداخته می‌گوید: «دسته‌بندی‌های بسیار زیادی وجود دارد که اثبات شده در حوزه تحلیل دیتا در سیستم عدالت مجرمانه، خروجی‌هایی نابرابر دارند. وقتی شما از فاکتور سن استفاده می‌کنید، باعث می‌شود اکثر خروجی‌ها یا پیش‌بینی‌ها در یک سیستم این‌طور باشد که بیشتر افراد جوان‌تر را به شما نشان می‌دهد. این به خاطر استفاده از سن به عنوان صرفا یکی از فاکتورهاست.» او می‌گوید که فاکتورهای تاریخچه جرایم سنتی به خودی خود جانب‌دارانه هستند و این یعنی هر الگوریتمی که با استفاده از آن‌ها تعلیم داده شد، همان جانب‌داری‌ها را ادامه می‌دهد و نیاز به مداخله انسانی به هنگام توسعه دارد.

دیل، مدیر پروژه NDAS می‌گوید: «ما جانب‌داری را پایش می‌کنیم و نمی‌خواهیم مدلی را راه‌اندازی کنیم که جانب‌دارانه باشد. ما متعهد به حصول اطمینان از این هستیم که مداخلات تماما مثبت باشند، با هدف کاهش جرایم صورت بگیرند و شانس زندگی کردن را بالاتر ببرند. نمی‌خواهیم خروجی‌ها نقش قوه قهریه را ایفا کنند».

هوش مصنوعی تشخیص جرم

دیل اضافه می‌کند: «ارزش اصلی MSV در هنر آزمودن اینست که چه احتمالاتی به هنگام توسعه این تکنیک‌ها در اختیارمان قرار گرفته است. به این ترتیب، به شکلی اجتناب‌ناپذیر از هرچیزی به هر دلیلی استفاده می‌کنیم. اما مطمئنیم که در مسیر پیشرفت هستیم و تکنیک علوم دیتایی را توسعه می‌دهیم که به کارهای پلیسی موثرتر و بهینه‌تر و همینطور خروجی‌های بهتر برای تمام جوامع منجر می‌شود».

تفکر کنونی NDAS اینست که ابزار پیش‌بینی خشونت می‌تواند پروسه تصمیم‌گیری فعلی در میان نیروهای پلیسی که به بررسی سوابق افرادی که احتمالا دست به جرایم خشونت‌آمیز و جدی بزنند می‌پردازند را «تقویت» کند. البته ابزار پیش‌بینی جرایم تنها یکی از بخش‌های این هوش مصنوعی است که توسعه‌اش به NDAS سپرده شده. این الگوریتم یادگیری ماشین می‌تواند برای تشخیص برده‌داری مدرن، جابه‌جایی تسلیحات و جرایم سازمان‌یافته نیز استفاده شود. کرسیدا دک، رییس پلیس شهری لندن قبلا گفته بود که نیروی پلیس به جای اتکای کامل بر سیستم‌های هوش مصنوعی، باید به استفاده از «هوش تقویتی» روی بیاورد.

با این حال، مشکل جانب‌داری و نژادپرستی احتمالی در سیستم‌های هوش مصنوعی اتفاق جدیدی نیست. طی ماه گذشته میلادی و در جریان اعتراضات «جان سیاه‌پوستان مهم است»، بیشتر از ۱۴۰۰ ریاضی‌دان در نامه‌ای سرگشاده خواستار توقف توسعه الگوریتم‌های پیش‌بینی کارهای پلیسی شدند. ریچاردسون می‌گوید: «اگر به هرکدام از حوزه‌های استحفاظی که از سیستم‌های پیش‌بینی در ساختار قضایی استفاده شده نگاه کنید، هیچ شواهدی نمی‌بینید از اینکه چنین سیستم‌هایی واقعا کارآمد باشند، اما موارد استفاده از آن‌ها دارد بیشتر و بیشتر می‌شود.»

این نگرانی‌ها به هنگام توسعه ابزار پیش‌بینی خشونت بیشتر هم شده است. در مستندات کمیته اخلاقی آمده که یکی از اعضای این گروه می‌گوید شکست در کدنویسی این الگوریتم «یک هشدار مطلق» راجع به ریسک استفاده از هوش مصنوعی و تکنولوژی در کارهای پلیسی است.

همین کمیته در ماه مارس نوشت: «در بهترین حالت ممکن، مدل‌های غیر دقیق می‌توانند افرادی را به پلیس معرفی کنند که هیچ منطقی پشت پیش‌بینی فعالیت‌های مجرمانه آن‌ها نیست. این می‌تواند به آسیب زدن به زندگی جوانان و مردم منجر شود. با این همه، خوب است که آن‌ها کار خودشان را مجددا ارزیابی می‌کنند و مشکلات را تشخیص می‌دهند تا از نو آغاز کنند.»

منبع: Wired

برچسب‌ها :
دیدگاه شما