استیون هاوکینگ درباره‌ی ترس‌اش از هوش مصنوعی توضیح می‌دهد

۱۹ فروردین ۱۳۹۸ زمان مورد نیاز برای مطالعه: ۱ دقیقه

هوش مصنوعی ماهر و توانا یکی از دغدغه‌های مهم استیون هاوکینگ است و مهارت بالای آن‌ها خطر اصلی برای انسان محسوب می‌شود.

“خطر اصلی هوش مصنوعی شرارت و بدجنسی نیست، بلکه مهارت و توانایی است.”

استیون هاوکینگ چند ماه پیش کاربران وب‌سایت «ردیت» Reddit را به یک جلسه‌ی پرسش و پاسخ Ask Me Anything دعوت کرده بود. موضوع اصلی که در این AMA مورد بحث قرار گرفت به هوش مصنوعی مربوط می‌شد. حالا این جلسه‌ی پرسش و پاسخ از سوی ردیت منتشر شده که هاوکینگ در آن موضع‌اش را در مقابل خطر هوش مصنوعی شفاف‌سازی می‌کند. او در پاسخ به معلمی که از بحث درباره‌ی ترمیناتور با دانش‌آموزان‌اش خسته شده بود، گفت: “خطر اصلی هوش مصنوعی شرارت و بدجنسی نیست، بلکه مهارت و توانایی است.” او توضیح داد که روبات‌های قاتل یا پلید خطر اصلی نیستند. “یک هوش مصنوعی بسیار باهوش در انجام کارها و دستیابی به اهداف‌اش مهارت خارق‌العاده‌ای دارد و اگر آن اهداف با خواسته‌های ما هماهنگی نداشته باشد، به دردسر خواهیم افتاد.” هاوکینگ قبلا هم اشاره کرده بود که “هوش مصنوعی می‌تواند پایان نسل بشر را رقم بزند” و همراه با ایلان ماسک و دیگر افراد سرشناس در عرصه‌ی فناوری، نامه‌ای را برای تحریم سلاح‌های مستقل امضا کرده بود.

البته استدلال استیون هاوکینگ به هیچ وجه دلگرم‌کننده نیست؛ یک ایراد نرم‌افزاری در هوش مصنوعی می‌تواند تبعات خطرناکی برای جهان داشته باشد. هاوکینگ اضافه کرد: “مثلا شما از مورچه بدتان نمی‌آید و از روی عمد و بدخواهی پای‌تان را روی آن نمی‌گذارید. اما اگر مسوول یک پروژه‌ی انرژی سبز هیدروالکتریک باشید، برای‌تان فرقی نمی‌کند که لونه‌ی مورچه در مسیر آب قرار داشته باشد. ما نباید اجازه بدهیم که بشر در جایگاه آن مورچه‌ها قرار بگیرد.” به همین دلیل است که هاوکینگ و دیگران اصرار دارند که انسان‌ها باید هوش مصنوعی را تحت کنترل داشته باشند.

‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌

منبع: Reddit

برچسب‌ها :
دیدگاه شما

۹ دیدگاه
  1. Avatar bijan

    به نظر من اینا فقط رویا (کابوس) پردازیه، هوش مصنوعی هرگز توانایی یک انسان نرمال رو بدست نمیاره.
    اول به دلیل نداشتن محل ذخیره سازی اطلاعات مستقل و سبک. کافیه به سرورهای هوش های مصنوعی نگاه کنید. فضاهای ابری یا فضاهایی به اندازه یک انباری بزرگ رو به خودشون اختصاص دادن. فکر کن مغزت در چندین گوشه از دنیا پراکنده باشه کافیه یه تیکش از مدار خارج بشه (همون فضای ابری) قطعا ضربه بزرگی به هوش فرد میخوره و همین ثابت بودن مکان به شدت اونو آسیب پذیر میکنه، گیرم که یک هوش مصنوعی که در یک فضای مشخص قرار داره اونقدر قوی بشه که از انسان پیشی بگیره، خب که چی؟ اون هنوزم مثل یک درخت به زمین چسبیده و ما خداروشکر (حداقل در این مورد) سلاح لازم برای از بین بردنشو داریم. پس عدم تحرک و مغز گنده! ضعف بسیار بزرگیه برای این موجوده.
    و دلیل دوم منبع تغذیه این هوش مصنوعیه، انسان اگر ناچار بشه میتونه علف هم بخوره اما نابغه ما فقط یک چیز مصرف میکنه، الکتریسیته، کافیه منبع تغذیه رو ازش جدا کنین، میشه چند تکه فلز و پلاستیک بی مصرف.
    شاید بگین همچین هوشی راه های دفاع از خودشو میسازه، اولا این در این صورته که حس ترس رو هم داشته باشه، که من واقعا نمیدونم چطوری قراره این حس رو در هوش مصنوعی ساخت!!! چون اگر نترسه به فکر دفاع هم نمی افته. دوم اگر هم بترسه و برای خودش راه کارهای دفاعی خلق کنه، بعید میدونم شانسی در مقابل بزرگترین مهاجمین تاریخ خلقت داشته باشه. باز هم همه اینها در صورتیه که دلیلی برای برتری جویی با انسان داشته باشه که من واقعن دلیلشو نمیدونم. بماند که چطور قراره این حس برتری جویی رو درش به وجود بیاریم
    جدای از این حرف های علمی تخیلی… هوش مصنوعی هنوز نمیتونه یک دست خط کج و کوله رو تشخیص بده. درحالی که همون دست خط برای چندمیلیارد انسان قابل تشخیصه.

    1. Avatar B.H

      به نظر من شما اشتباه میکنید یک چیزی که هیچ وقت نمی ایستد پیشرفت علم است که هر لحظه سرعتش بیشتر میشود و با پیش رفت علم مطمئنا یک روزی هرچیزی که امروز بهش میگیم غیر ممکن ممکن میشود و یک ربات با هوش مصنوعی با قدرت هوش انسان و یا قوی تر ساخته میشود ولی بدی هایی هم دارد فکر کنیم که هکر ها سیستم یک ربات را هک کنند یک تروریست به وجود می آید

      1. Avatar bijan

        من هم فکر میکنم شما اصلا متوجه نشدی من چی گفتم.
        هرکر بدبختم باز شد آدم بده 😀
        بیخیال.

    2. Avatar تشکر

      bijan جان خیلی ممنون به این میگن اثبات با دلایل منطقی خوشم اومد واقعا که خوب بود
      ربات ها حتی اگه این مشکلات رو نداشته بودن هم بازم نمی تونن خلاقیت و نو آوری انسان رو تقلید کنند

  2. Avatar حاجي تكنولوژي

    ترمیناتور…
    چه جالب..
    فقط یه جیمز باند کم داریم..

  3. Avatar سامان

    خداییش دستاورد ترسناکیه ولی این دلیل نمیشه به پیشرفت فکر نکنیم اگر قرار باشه به فناوری هوش مصنوعی برسیم باید خودمون را اون قدر قوی بکنیم که بتونیم کنترلش کنیم
    کلا هاوکینگ از دو تا چیز واهمه داره یکی هوش مصنوعی و اون یکی هم بیگانگان فضایی دانشمندان را هم از تحقیق در مورد این دو بر حذر داشته
    ولی من با حرفش در مورد انقراض بشر موافقم من فکر کنم نابودیمون بدست خودمون حالا یا با هوش مصنوعی ، جنگ و یا بیماری و این قانون نا نوشته تاریخچه زمینه

  4. Avatar امیرحسین

    تبله تقریبا ایشون درست گفته در واقع باید هوش مصنوعی در اختیار انسان باشه و به اون کمک نه نه ما به اونها به هر حال امکان داره خطراتی داشته باشن

  5. Avatar A

    منم موافقم دنیایی بدون انسان

  6. Avatar B.H

    چه بهتر دنیایی بدون انسان ها

loading...
بازدیدهای اخیر
بر اساس بازدیدهای اخیر شما
تاریخچه بازدیدها
مشاهده همه