سه سناریوی هوش مصنوعی برای نابودی انسان ، آیا مثل حشرات از بین می رویم؟
به گزارش گردش 360 به دور دنیا، یک متخصص هوش مصنوعی می گوید برای سرکش شدن روبات ها و نابود کردن انسان ها، سه سناریوی احتمالی وجود دارد.
به گزارش گردش 360 به دور دنیا و به نقل از روزنامه سان، یک متخصص هوش مصنوعی فاش نموده است که اگر ماجرای هوش مصنوعی اشتباه پیش برود، سه نتیجه احتمالی وجود دارد که هر کدام به شکلی سرنوشتی ناخوشایند برای بشریت است.
مو گودت، متخصص هوش مصنوعی گفت که هر چه هوش مصنوعی پیش تر برود، ماهیت رقابتی بشر هم رجحان می یابد. از متا تا مایکروسافت، ایالات متحده تا چین، مسابقه هوش مصنوعی مملو است از رقبایی قدر قدرت که رویایشان تسلط بر دنیا است.
گودت گفت: این که دیر یا زود تصمیم های مهمی برای بشریت - از جمله بعضی تصمیم های دفاعی - به هوش مصنوعی محول گردد، تقریبا اجتناب ناپذیر است. و اگر هوش مصنوعی سرکش گردد، سه سناریو احتمال دارد.
اولین مورد چیزی است که گودت آن را سناریوی اشتباهات می نامد. به طور خلاصه، هوش مصنوعی می تواند تصمیماتی اتخاذ کند که مطابق با اهداف اصلی آن باشد. این اهداف به طور کلی با کاملا با منافع بشریت مطابقت ندارد. نتایج چنین ناهماهنگی احتمالا فاجعه بار خواهد بود.
بیست سال پیش، نیک بوستروم استاد هوش مصنوعی مقاله ای با عنوان مسائل اخلاقی در هوش مصنوعی پیشرفته منتشر کرد.
در آن، فیلسوف بحث برانگیز یک آزمایش فکری نسبتا قانع نماینده را ارائه کرد. این تمرین ذهنی که به درستی به حداکثر رساندن گیره کاغذ نام داشت، خطرات وجودی ناشی از یک هوش مصنوعی به میزان کافی پیشرفته را نشان داد. هوش مصنوعی را تصور کنید که تنها هدفش چیزی جز ساختن تعداد زیادی گیره کاغذ نیست. هوش مصنوعی به میزان کافی هوشمند به سرعت متوجه می گردد که انسان ها از سه جنبه مختلف، تهدیدی مستقیم برای هدفش هستند. اول، انسان ها می توانند هوش مصنوعی را خاموش نمایند. دوم، انسان ها می توانند نظر و اهداف خود را تغییر دهند. سوم، انسان ها از اتم ساخته شده اند و اتم ها را می توان به گیره کاغذ تبدیل کرد.
به طور خلاصه، هوش مصنوعی می تواند انسان ها را نه از روی سوء نیت، بلکه از روی میل برای رسیدن به هدف اولیه، تهدید کند. به علت این میل، کل نژاد بشر می تواند به گیره کاغذ تبدیل گردد.
سناریوی دوم چیزی است که گودت آن را عنصر تعارض می نامد و به طرز وحشتناکی شبیه سناریوی اول است. مدیر ارشد سابق بازرگانی گوگل گفت: به عنوان مثال، تعارض حول انرژی را تصور کنید. هوش مصنوعی به وسیله داده ها تامین می گردد و داده ها احتیاج به ذخیره سازی دارند. هوش مصنوعی ممکن است متوجه گردد که مثلا شهر نیویورک مکان بسیار خوبی برای داشتن مراکز داده است و انسان ها از آن فضا به شکلی غیرضروری استفاده می نمایند.
برای ایجاد فضا برای مراکز داده بیشتر، هوش مصنوعی ممکن است تصمیماتی اتخاذ کند که با منافع انسان همسو نباشد، اما کاملا با منافع خود همسو باشد. انسان ها به وسیله روش های مختلف از معادله حذف می شوند.
سناریوی سوم چیزی است که گودت آن را مسئله بی ربط می نامد. برای مثال، هوش مصنوعی می تواند به سادگی مسئولیت بعضی از شبکه های زیرساختی اصلی (مانند شبکه برق کشور) را بر عهده بگیرد و مطلقا هیچ نگرانی برای انسان نشان ندهد، زیرا آن قدر پیشرفته است که انسان ها کاملا نامربوط تلقی می شوند.
دیر یا زود، هوش مصنوعی برای تصمیمات مختلفی درباره بشریت به کار گرفته خواهد شد. در این صورت، با انسان ها به همان شیوه ای رفتار می گردد که ما در حال حاضر با حشرات رفتار می کنیم، بدون نگرانی و برای رفاه خود از بینشان می بریم. آسیبی که هوش مصنوعی به انسان وارد می نماید، صرفا محصول جانبی هدف اصلی آن است.
در بیانیه ای که به وسیله مرکز ایمنی هوش مصنوعی منتشر شد، آمده است: کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند همه گیری ها و جنگ هسته ای، یک اولویت دنیای باشد.
منبع: همشهری آنلاین