اخلاق در هوش مصنوعی؛ آیا الگوریتمها میتوانند قضاوت اخلاقی کنند؟
در دنیایی که هر روز بیشتر از قبل به دست ماشینها سپرده میشود، سؤالهای جدیدی درباره حدود و مرزهای تصمیمگیری خودکار در ذهن ما شکل میگیرند. یکی از مهمترین آنها این است: آیا الگوریتمها میتوانند قضاوت اخلاقی داشته باشند؟ این پرسش، تنها یک بحث نظری در فلسفه یا آیندهپژوهی نیست، بلکه مسئلهای است که همین حالا در طراحی خودروهای خودران، سیستمهای قضایی مبتنی بر داده، فیلترهای محتوای شبکههای اجتماعی و حتی توصیههای پزشکی مبتنی بر هوش مصنوعی، بهطور مستقیم با آن روبهرو هستیم.
اخلاق در هوش مصنوعی، به عنوان شاخهای نوظهور از مطالعات میانرشتهای، تلاش میکند تا به این چالش پاسخ دهد: وقتی الگوریتمی باید بین دو انتخاب تصمیم بگیرد، چگونه میتوانیم مطمئن باشیم که آن تصمیم “درست” یا “اخلاقی” است؟ چه کسی این معیارها را تعیین میکند؟ و اصلاً آیا میتوان از هوش مصنوعی انتظار داشت که مثل انسان ارزشهای اخلاقی را بشناسد و بر اساس آنها تصمیم بگیرد؟
در این مقاله، قدمبهقدم به این پرسش خواهیم پرداخت. از تعریف پایهای اخلاق و منطق تصمیمگیری الگوریتمی گرفته تا بررسی سناریوهای واقعی و بررسی آیندهای که در آن ممکن است هوش مصنوعی در جایگاه قاضی، پزشک یا حتی والدین مجازی قرار گیرد. با ما همراه باشید تا ببینیم مرز میان کد و اخلاق چقدر ناپیدا و پیچیده است.
اخلاق در هوش مصنوعی چیست و چرا اهمیت دارد؟
الگوریتمها چگونه تصمیمگیری میکنند؟
قضاوت اخلاقی چه تفاوتی با تصمیمگیری منطقی دارد؟
آیا هوش مصنوعی میتواند ارزشهای اخلاقی را درک کند؟
مسئولیتپذیری در تصمیمات الگوریتمی؛ چه کسی پاسخگوست؟
محدودیتهای ذاتی الگوریتمها در قضاوت اخلاقی
آیا میتوانیم به الگوریتمها اعتماد کنیم؟
سخن آخر
اخلاق در هوش مصنوعی چیست و چرا اهمیت دارد؟
برای فهم اینکه آیا الگوریتمها میتوانند تصمیمگیری اخلاقی داشته باشند، ابتدا باید بدانیم خود اخلاق در هوش مصنوعی دقیقاً به چه معناست. در سادهترین تعریف، این مفهوم به مجموعهای از اصول، ارزشها و دغدغههای اخلاقی گفته میشود که هنگام طراحی، آموزش، پیادهسازی و استفاده از سامانههای مبتنی بر هوش مصنوعی باید در نظر گرفته شوند. این موضوع نهتنها به رفتار خود ماشینها مربوط است، بلکه به مسئولیت طراحان، توسعهدهندگان و کاربران آنها نیز بستگی دارد.
در دنیای انسانی، اخلاق حاصل مجموعهای پیچیده از تجربه، آموزش، احساسات، فرهنگ، و تعامل اجتماعی است. اما ماشینها چیزی به نام «وجدان» یا «ادراک اخلاقی» ندارند. آنها بر پایه الگوریتمها، دادهها و منطق ریاضی کار میکنند. بنابراین سؤال اصلی اینجاست که آیا میتوان چنین سامانههایی را طوری برنامهریزی کرد که به ارزشهای انسانی پایبند باشند یا نه؟
در مواردی مانند خودروهای خودران، یک تصمیم ساده میتواند پیامدهای مرگ و زندگی داشته باشد. فرض کنید خودرویی باید بین برخورد با یک عابر پیاده یا منحرف شدن و آسیب رساندن به سرنشین خودش یکی را انتخاب کند. آیا باید بر اساس جان بیشتر تصمیم بگیرد؟ یا مسئولیت جان سرنشین اولویت دارد؟ اینجا دقیقاً جایی است که مرز بین فناوری و اخلاق محو میشود.

با ظهور سیستمهایی مانند چتباتها، دستیارهای هوشمند و بهویژه سامانههایی نظیر چت جیپیتی، نیاز به استانداردهای اخلاقی در هوش مصنوعی بیش از گذشته احساس میشود. چون این مدلها میتوانند بر درک، باور و تصمیمهای کاربران اثر بگذارند. اگر این سیستمها بهدرستی هدایت نشوند، ممکن است نهتنها به انتشار اطلاعات نادرست دامن بزنند، بلکه باعث تشویق رفتارهای تبعیضآمیز یا غیراخلاقی هم شوند.
در واقع، «اخلاق در هوش مصنوعی» تلاش میکند پاسخ دهد که چگونه باید به هوش مصنوعی، حس مسئولیت، عدالت و انصاف را القا کرد. هرچند فعلاً بیشتر در مرحلهی نظریهپردازی و استانداردسازی هستیم، اما با توجه به سرعت پیشرفت این فناوری، زمان زیادی تا برخورد مستقیم با این چالشها باقی نمانده است.
الگوریتمها چگونه تصمیمگیری میکنند؟
برخلاف انسانها که تصمیمگیریهایشان ترکیبی از تجربه، احساس، منطق و ارزشهای فرهنگی است، الگوریتمها تصمیمات خود را صرفاً بر پایه دادهها و قواعد ازپیشتعیینشده اتخاذ میکنند. به عبارت دیگر، وقتی میگوییم «هوش مصنوعی تصمیم میگیرد»، در واقع از مدلی صحبت میکنیم که با تحلیل ورودیها، احتمال پیامدهای مختلف را ارزیابی کرده و خروجی خاصی را انتخاب میکند. اما آیا این فرآیند را میتوان «قضاوت» نامید؟ بهویژه قضاوت اخلاقی؟

در سادهترین شکل، الگوریتم یک سری شرط و قاعده را بررسی میکند و طبق آنها عمل میکند. این قواعد میتوانند مبتنی بر ریاضیات، جبر بولی، یا مدلهای آماری پیشرفتهتری باشند. در هوش مصنوعی مدرن، مخصوصاً یادگیری ماشین و یادگیری عمیق، الگوهای تصمیمگیری اغلب بهشکل مدلهایی با هزاران پارامتر در میآیند که نتیجهگیریهای خود را از میلیونها داده ورودی استخراج کردهاند. اما همینجا مشکلی پدید میآید: اگر دادههایی که سیستم بر پایه آنها آموزش دیده دارای سوگیری یا تعصب باشند، خروجی هم ممکن است ناعادلانه یا غیراخلاقی باشد.
تصور کنید الگوریتمی برای بررسی صلاحیت استخدام طراحی شده و بهطور ناخودآگاه به دادههای قدیمیتری تکیه دارد که در آن زنان یا اقلیتها کمتر استخدام شدهاند. در این صورت، این مدل نیز بهصورت غیرمستقیم همین تبعیض را بازتولید میکند، چون معیارهایش بر اساس الگوهای ناعادلانهی گذشته شکل گرفتهاند. اینجا ما با یک مثال از «اخلاق در هوش مصنوعی» روبهرو هستیم که بهروشنی نشان میدهد تنها طراحی فنی کافی نیست؛ بلکه آگاهی اخلاقی باید در قلب طراحی الگوریتمها جای گیرد.
نکتهی مهم دیگر آن است که الگوریتمها به نیت آگاهانه مجهز نیستند. اگر آنها در یک سیستم قضایی یا پزشکی مورد استفاده قرار گیرند، ممکن است تصمیماتی بگیرند که بهظاهر درست، اما از نظر اخلاقی غیرقابلقبول باشند. برای مثال، انتخاب بیمارانی که باید در صف پیوند عضو جلوتر قرار بگیرند، بر اساس صرفاً دادههای پزشکی، ممکن است افراد مسن یا دارای بیماریهای خاص را حذف کند؛ بیآنکه توجهی به ارزشهای انسانی، شأن فردی یا بستر اجتماعی تصمیمها داشته باشد.

در نتیجه، وقتی میپرسیم آیا الگوریتمها میتوانند قضاوت کنند، باید بپرسیم: آیا میتوان مجموعهای از اصول اخلاقی را چنان دقیق، صریح و قابلبرنامهنویسی کرد که یک ماشین قادر به درک و اجرای آنها باشد؟ این پرسش، در دل خود چالشهایی را نهفقط برای مهندسان، بلکه برای فیلسوفان، حقوقدانان و جامعهشناسان نیز بههمراه دارد.
قضاوت اخلاقی چه تفاوتی با تصمیمگیری منطقی دارد؟
در نگاه اول، ممکن است قضاوت اخلاقی شبیه به تصمیمگیری منطقی به نظر برسد: تحلیل شرایط، سنجش گزینهها و انتخاب بهترین مسیر. اما تفاوت اساسی اینجاست که قضاوت اخلاقی فراتر از محاسبه سود و زیان عمل میکند. این نوع قضاوت بر پایه درک پیچیدهای از ارزشها، احساس مسئولیت، همدلی، عدالت و نیت عملکننده شکل میگیرد. درواقع، در حالیکه یک الگوریتم ممکن است بهدرستی میان دو گزینه یکی را انتخاب کند، آنچه این انتخاب را «اخلاقی» میسازد، نیت و آگاهی پشت آن است.
انسانها از سنین بسیار پایین شروع به یادگیری ارزشهای اخلاقی میکنند. این یادگیری از طریق خانواده، اجتماع، فرهنگ، آموزش، و تجربههای شخصی اتفاق میافتد. ما به مرور زمان نهتنها یاد میگیریم که چه چیزی «درست» یا «غلط» است، بلکه دلایل پشت این درستی یا نادرستی را نیز درک میکنیم. ما میدانیم که دروغ گفتن ممکن است در شرایطی پیامد بدی نداشته باشد، اما هنوز آن را اشتباه میدانیم چون به اعتماد جمعی آسیب میزند.

در مقابل، الگوریتمهای هوش مصنوعی هیچگونه حس درونی از درست و غلط ندارند. آنها فقط میتوانند «شبیهسازی» کنند که در فلان موقعیت، فلان انتخاب با احتمال بیشتری به نتیجه مطلوب میانجامد. اما آیا این کافی است؟ فرض کنید رباتی تصمیم بگیرد برای نجات ۵ نفر یک نفر را فدا کند. این انتخاب از منظر فایدهگرایی قابل دفاع است. اما از دید حقوق بشر یا اخلاق وظیفهگرایانه، شاید کاملاً مردود باشد. اینجاست که مرز بین تصمیمگیری منطقی و قضاوت اخلاقی آشکار میشود.
همچنین قضاوت اخلاقی در انسانها اغلب همراه با تردید، پشیمانی و تأمل است. ما پس از تصمیمهای اخلاقی، آنها را مرور میکنیم، گاهی دچار عذاب وجدان میشویم یا حتی آنها را تغییر میدهیم. این ظرفیت برای بازبینی و ارزیابی، بخشی از انسان بودن ماست. ولی یک الگوریتم فاقد چنین لایههای درونی و بازاندیشانه است.
در نهایت باید پرسید: آیا صرف درست بودن یک انتخاب در سطح منطقی، آن را اخلاقی هم میکند؟ پاسخ به این سؤال، اساس بحث درباره اخلاق در هوش مصنوعی است. الگوریتمها در بهترین حالت میتوانند نسخهای تقریبی از اخلاقیات را اجرا کنند، اما تا زمانی که درک نکنند چرا کاری درست یا غلط است، هنوز تا قضاوت اخلاقی فاصله زیادی دارند.
آیا هوش مصنوعی میتواند ارزشهای اخلاقی را درک کند؟
با جدیتر شدن نقش هوش مصنوعی در تصمیمگیریهای انسانی، پژوهشگران و شرکتهای بزرگ تکنولوژی به این فکر افتادهاند که چگونه میتوان الگوریتمهایی طراحی کرد که نهفقط کارآمد، بلکه اخلاقمدار نیز باشند. این دغدغه مخصوصاً وقتی پررنگتر میشود که پای جان انسانها در میان است؛ از خودروهای خودران گرفته تا الگوریتمهای پزشکی، نظامی یا قضایی. اما طراحی چنین الگوریتمهایی تا چه حد ممکن است؟

یکی از رویکردهای اولیه، تلاش برای تعریف صریح اصول اخلاقی به زبان ریاضی بود. مثلاً، اگر بتوان قواعد اخلاقی را به شکل دستورالعملهایی مشخص کدگذاری کرد، شاید یک سیستم بتواند با پیروی از آنها رفتار مناسبی نشان دهد. اما مشکل اینجاست که بسیاری از مسائل اخلاقی نه سفیدند و نه سیاه؛ بلکه خاکستریاند. تصمیمگیریهای اخلاقی اغلب وابسته به زمینه، بافت فرهنگی، احساسات و حتی ارزشهای شخصی هستند؛ عناصری که بسیار دشوار است آنها را در قالب کد و منطق ریاضی جای داد.
پژوهشگران در پروژههایی مثل «ماشین اخلاقی» (Moral Machine) تلاش کردند با جمعآوری نظر میلیونها کاربر درباره سناریوهای اخلاقی – مانند اینکه خودرو خودران در یک تصادف، چه کسی را باید نجات دهد – دادههایی جمعآوری کنند که نمایانگر اولویتهای اخلاقی جمعی باشد. اما حتی این پروژه هم نشان داد که دیدگاههای اخلاقی در نقاط مختلف جهان بهشدت متفاوتاند و هیچ استاندارد جهانی یا همگرایی روشنی وجود ندارد.
در مقابل، برخی پژوهشگران بهجای نوشتن قوانین صریح اخلاقی، تلاش میکنند الگوریتمهایی طراحی کنند که از تصمیمهای اخلاقی انسانها یاد بگیرند. این شیوه، موسوم به «یادگیری تقویتی اخلاقی» یا «استنتاج از ترجیحات»، امید دارد که از طریق دادههای رفتاری، نوعی شهود اخلاقی را در ماشینها تقلید کند. با این حال، این روش نیز بهشدت به کیفیت دادهها، تنوع آنها و نبود سوگیری وابسته است.

نمونههایی از تلاشهای عملی نیز در سطح شرکتها در حال پیادهسازیاند. مثلاً گوگل و اپل در برخی از پروژههای خود تیمهایی برای بررسی ابعاد اخلاقی تصمیمات الگوریتمی تشکیل دادهاند. اما انتقادهایی هم وجود دارد که این اقدامات بیش از آنکه عمیق و علمی باشند، بیشتر جنبه نمایشی دارند.
مسئولیتپذیری در تصمیمات الگوریتمی؛ چه کسی پاسخگوست؟
فرض کنید یک خودروی خودران در یک تصادف مرگبار نقش داشته باشد، یا یک سیستم تشخیص چهره اشتباهاً فرد بیگناهی را به عنوان مجرم شناسایی کند، یا حتی یک الگوریتم مالی باعث از دست رفتن سرمایه میلیونها نفر شود. در چنین شرایطی، این سؤال مطرح میشود که چه کسی باید پاسخگو باشد؟ آیا مسئولیت بر عهده سازنده الگوریتم است؟ کاربری که آن را به کار گرفته؟ یا شرکت توسعهدهندهای که دادهها را تأمین کرده؟

این مسئله یکی از بنیادیترین چالشهای اخلاقی و حقوقی عصر هوش مصنوعی است. چرا که برخلاف ابزارهای سنتی، الگوریتمهای یادگیری ماشینی میتوانند رفتاری غیرقابلپیشبینی از خود نشان دهند؛ رفتاری که حتی سازندگان آنها نیز دقیقاً نمیدانند چطور شکل گرفته است. بهبیان دیگر، ما با موجوداتی روبهرو هستیم که درونشان «جعبه سیاه» است و حتی خالق آنها نیز از تمام جزئیات فرایند تصمیمگیریشان آگاه نیست.
اینجا پای مفهوم «مسئولیت پراکنده» یا Distributed Responsibility وسط میآید؛ جایی که چندین نهاد و فرد در زنجیره طراحی، توسعه، آموزش، استفاده و نظارت بر الگوریتمها دخیلاند. همین پراکندگی باعث میشود که گاهی هیچکس خود را مسئول مستقیم خطاهای اخلاقی یا انسانی نمیداند، و این یعنی خطر گریز از پاسخگویی.
برای نمونه، در پروندههایی که از الگوریتمهای تحلیل داده برای تصمیمگیری در سیستم قضایی ایالات متحده استفاده شد، مشخص شد برخی از این الگوریتمها بهطور ناعادلانهتری علیه اقلیتهای نژادی رأی میدهند. شرکت سازنده در پاسخ گفت که آنها فقط ابزار را ساختهاند و مسئول استفاده از آن نیستند. در مقابل، قاضی نیز خود را بیگناه میدانست، چون به ابزار قانونی مجاز استناد کرده بود. این چرخهی بیپایان بیپاسخی، همان چیزی است که نگرانکننده شده.
در سالهای اخیر، برخی کشورها و اتحادیهها (مانند اتحادیه اروپا) تلاش کردهاند تا چارچوبهای حقوقی تازهای برای هوش مصنوعی تنظیم کنند؛ قوانینی که شفافیت، قابلیت ردگیری تصمیمات، و مسئولیتپذیری را الزامی میسازد. اما این اقدامات هنوز در مراحل اولیهاند و با چالشهای اجرایی فراوانی روبهرو هستند.

در نهایت، اگر قرار است هوش مصنوعی در تصمیمگیریهای جدی انسانی نقشی ایفا کند، باید زیرساختی قانونی، اخلاقی و فنی فراهم کنیم که تضمین دهد هیچ تصمیمی بیپاسخگو باقی نمیماند. الگوریتمها اگرچه بیجاناند، اما اثراتشان بسیار زنده و انسانی است؛ و همین نکته مسئولیت ما را در برابر آنها دوچندان میکند.
محدودیتهای ذاتی الگوریتمها در قضاوت اخلاقی
الگوریتمها، در بهترین حالت، ابزارهایی هستند که بر اساس دادههای ورودی، تصمیمگیری میکنند. اما آیا این تصمیمگیری میتواند همارز با قضاوت اخلاقی انسانی باشد؟ پاسخ این سؤال، ما را به قلب یکی از مهمترین مباحث در حوزه اخلاق در هوش مصنوعی میبرد.
درک اخلاقی، برخلاف آنچه گاهی تصور میشود، صرفاً مجموعهای از قوانین و ضوابط از پیش تعیینشده نیست. بلکه ترکیبی پیچیده از شهود، احساسات، تجربه زیسته، زمینه فرهنگی و تفکر انتقادی است. الگوریتمها، حتی آنهایی که از مدلهای بسیار پیشرفتهی یادگیری عمیق استفاده میکنند، فاقد بسیاری از این عناصر هستند.

یکی از محدودیتهای کلیدی، ناتوانی الگوریتمها در فهم قصد انسانی است. برای مثال، دو عمل ممکن است از بیرون یکسان بهنظر برسند، اما قصد فرد پشت آنها میتواند کاملاً متفاوت باشد. این تفاوت، در قضاوت اخلاقی انسانی نقش اساسی دارد، اما برای یک ماشین که فقط الگوها و خروجیها را تحلیل میکند، تقریباً نامرئی است.
محدودیت دیگر، مسئلهی تعمیمپذیری و بافتمحور بودن است. یک الگوریتم ممکن است در یک سناریوی خاص عملکرد خوبی داشته باشد، اما وقتی شرایط کمی تغییر میکند، تصمیماتی بگیرد که کاملاً غیراخلاقی یا ناعادلانه بهنظر برسد. این چیزی است که حتی در سیستمهایی مثل چت جیپیتی هم دیدهایم؛ جایی که پاسخها در بافتهای مختلف میتوانند تفاوتهای زیادی داشته باشند، حتی اگر الگوریتم مشابه باشد.
در کنار اینها، الگوریتمها بهشدت به دادهها وابستهاند؛ و دادهها اغلب بازتابی از جهان ناعادلانهای هستند که در آن زندگی میکنیم. وقتی دادهها دچار سوگیریهای نژادی، جنسیتی، طبقاتی یا فرهنگی باشند، خروجی الگوریتم هم خواسته یا ناخواسته بازتولید همان سوگیریها خواهد بود.
درست به همین دلایل است که برخی پژوهشگران بر این باورند که الگوریتمها شاید هرگز نتوانند قضاوت اخلاقی واقعی داشته باشند. آنها میتوانند رفتار اخلاقی را «شبیهسازی» کنند، اما این با درک اخلاقی متفاوت است.

در این میان، حوزههایی مثل هوش مصنوعی عاطفی نیز در حال توسعهاند؛ حوزهای که سعی دارد با افزودن لایههایی از احساسات و واکنشهای عاطفی، تجربه انسانیتری را بازسازی کند. با این حال، هنوز هم سؤال اساسی پابرجاست: آیا تقلید از اخلاق، همان اخلاق است؟ یا تنها نمایشی سطحی و خطرناک از آن؟
آیا میتوانیم به الگوریتمها اعتماد کنیم؟
در پایان این مسیر پرچالش، همچنان پرسش کلیدی پابرجاست: آیا باید به الگوریتمها برای قضاوتهای اخلاقی اعتماد کنیم؟ این سؤال، نهفقط یک مسئله فنی یا فلسفی، بلکه یکی از بنیادیترین دغدغههای عصر دیجیتال است؛ پرسشی که پاسخ به آن، آینده تعامل انسان و ماشین را شکل خواهد داد.
اعتماد، برخلاف آنچه گاهی تصور میشود، صرفاً بر پایه عملکرد دقیق یا قابلیت پیشبینی بنا نمیشود. در جهان انسانی، اعتماد نتیجهی ترکیبی از درک متقابل، شناخت، تجربه زیسته، و حس اطمینان نسبت به نیت و ارزشهای طرف مقابل است. اما الگوریتمها، بهویژه در زمینه اخلاق در هوش مصنوعی، با کمبودهای جدی در این زمینهها روبهرو هستند.

در واقع، آنچه امروز شاهد آن هستیم، نوعی اعتماد ابزاری است؛ ما به سیستمها اعتماد میکنیم چون در بسیاری از زمینهها عملکرد بهتری از انسانها دارند: از پیشبینی آبوهوا گرفته تا شناسایی چهره یا تحلیل دادههای پزشکی. اما وقتی پای تصمیمهایی به میان میآید که بار سنگین اخلاقی دارند، این اعتماد ابزارمحور ممکن است به سادگی فروبپاشد.
مشکل اصلی اینجاست که الگوریتمها، حتی در پیچیدهترین شکل خود، همچنان بازتابی از ما انسانها هستند؛ بازتابی که اغلب با سوگیری، نقص، نابرابری و حتی جهل ما شکل گرفته است. وقتی این بازتاب، در مقیاسی جهانی و با قدرتی بیسابقه عمل میکند، خطر آن وجود دارد که نهتنها خطاهایمان را بازتولید کند، بلکه آنها را تثبیت و نهادینه نیز بکند.
از سوی دیگر، الگوریتمهایی که بر اساس دادههای تاریخی آموزش میبینند، الزاماً نمیتوانند با تغییرات فرهنگی، اجتماعی یا اخلاقی هماهنگ شوند. اخلاق مفهومی ایستا نیست؛ در طول زمان و در جوامع مختلف دگرگون میشود. اما مدلهای یادگیری ماشینی، برخلاف تصور رایج، چندان منعطف و بهروزشونده نیستند، مگر آنکه از پایه بازآموزی شوند.
در این میان، مفاهیمی همچون «حس مسئولیت»، «وجدان» یا «درک همدلی» جای خالی خود را در الگوریتمها حفظ کردهاند. بدون این عناصر، اعتماد واقعی به آنها ممکن نیست؛ بهویژه در زمینههایی که پای جان انسانها، عدالت اجتماعی یا آزادیهای فردی در میان است.

پاسخ نهایی به پرسش اعتماد، هنوز روشن نیست. آنچه مسلم است، این است که اعتماد کورکورانه به الگوریتمها، بدون شفافیت، نظارت و استانداردهای اخلاقی، میتواند عواقبی ناگوار داشته باشد.
سخن آخر
الگوریتمها در مسیر رشد بیسابقه خود، از ابزارهایی ساده برای پردازش داده، به سیستمهایی با قابلیت تصمیمگیری پیچیده تبدیل شدهاند. اما هرچه بیشتر به هوش مصنوعی تکیه میکنیم، بیشتر با پرسشهایی اخلاقی مواجه میشویم که پاسخی آسان برایشان وجود ندارد. قضاوت، چیزی فراتر از تحلیل آماری یا یادگیری ماشینی است؛ ریشه در ارزشهای انسانی، بافت فرهنگی و مسئولیتپذیری دارد. اگر میخواهیم آیندهای متعادل و انسانی در کنار فناوری بسازیم، باید اخلاق را نه فقط بهعنوان یک ملاحظه جانبی، بلکه بهعنوان هسته اصلی طراحی و توسعه هوش مصنوعی در نظر بگیریم.
منبع: دیجیکالا مگ


