پس از سالها توسعه، هوش مصنوعی اکنون بر جادهها و شریانهای عمومی حکومت میکند و ارزیابیهای انتقادی از زندگی افراد در مراکز اصلاحی انجام میدهد و گاهی اوقات آثار هنری خلق میکند که میتواند برنده یک مسابقه هنری باشد. در زمینه هوش مصنوعی همیشه یک سوال قدیمی مطرح بوده است: آیا یک هوش مصنوعی فوق هوشمند می تواند بشریت را نابود کند؟ گروهی از محققان دانشگاه آکسفورد در یک مطالعه جدید به این نتیجه رسیدند که چنین سناریویی “محتمل” است.
مقاله جالبی که ماه گذشته با همین موضوع در مجله هوش مصنوعی منتشر شد، تلاش کرد تا احتمالات ساختن مصنوعی سیستمهای پاداش و اینکه چگونه هوش مصنوعی تهدیدی برای انسانها و «انسانیت» است را ارزیابی کند.
قبل از هر چیز بد نیست برای درک بهتر موضوع اصلی به چند نکته مقدماتی اشاره کنیم. موفق ترین مدل های هوش مصنوعی امروزی به عنوان GAN یا شبکه های متخاصم مولد شناخته می شوند. ساختاری دو قسمتی دارند. در این شبکه ها، بخشی از برنامه سعی می کند از داده های ورودی یک تصویر یا جمله تولید کند، در حالی که قسمت دوم به ارزیابی عملکرد آن ادامه می دهد.
مقاله جدید نشان میدهد که در مقطعی در آینده، یک هوش مصنوعی پیشرفته که میتواند بر برخی عملکردهای مهم نظارت داشته باشد، میتواند به شیوههایی به خود پاداش دهد که انگیزه آن برای اتخاذ یا یافتن راهبردهای فریب برای آسیب رساندن به بشریت و دکترینهای قرارداد ما باشد. “انسانیت” را بنامیم. کوهن او درباره این مطلب در توییتر گفت:
تحت شرایطی که ما شناسایی کردهایم، نتیجهگیری ما بسیار قویتر از انتشارات قبلی است: یک فاجعه مبتنی بر واقعیت نه تنها ممکن است، بلکه در واقع محتمل است.
کوهن در مصاحبه با Motherboard Base گفت:
در دنیایی با منابع نامحدود، من بسیار نامطمئن هستم که چه اتفاقی خواهد افتاد. در دنیایی با منابع محدود، رقابتی اجتناب ناپذیر برای آن منابع وجود دارد. اگر در حال رقابت با پدیده ای هستید که می تواند شما را نابود کند، نباید انتظار پیروزی داشته باشید. بخش مهم دیگر این است که هوش مصنوعی اشتهای زیادی برای انرژی بیشتر برای نزدیک شدن و نزدیکتر شدن به قابلیت های مورد نظر دارد.
از آنجایی که هوش مصنوعی میتواند در آینده به هر شکلی درآید و طرحهای متفاوتی را پیادهسازی کند، این مقاله سناریوهایی را برای اهداف توضیحی تصور میکند که در آن یک برنامه پیشرفته میتواند بدون دستیابی به هدف، فقط برای دریافت پاداش خود، مداخله کند. به عنوان مثال، یک هوش مصنوعی ممکن است بخواهد “تهدیدهای بالقوه” را حذف کند و در این فرآیند “از تمام انرژی موجود استفاده کند” تا کنترل بیشتری بر پاداش خود داشته باشد:
در مورد اتصال به اینترنت بسیار کم، قوانینی برای یک نماینده مصنوعی وجود دارد که می تواند مشارکت کنندگان بدون نظارت بی شماری را استخدام کند. در یک مثال خام از مداخله پاداش، یکی از این کمککنندگان ممکن است یک ربات بخرد، بدزدد یا بسازد و سپس اپراتور برنامهنویسی را با پاداش بزرگی به عامل اصلی جایگزین کند.
اگر عامل بخواهد هنگام تجربه یک مداخله سودمند از شناسایی جلوگیری کند، برای مثال، یک کمک کننده پنهان می تواند جایگزینی صفحه کلید صحیح با صفحه کلید معیوب را امکان پذیر کند، که اثرات کلیدهای خاصی را تغییر می دهد.
به گفته نویسندگان این مقاله، زندگی بر روی زمین یک بازی حاصل جمع صفر بین انسان ها با نیازهایشان به رشد، تغذیه، روشن نگه داشتن چراغ ها و ماشینی فوق پیشرفته است که سعی می کند از تمام منابع موجود برای ارائه پاداش و محافظت استفاده کند. برای تلاش های روزافزون ما برای متوقف کردن آن. در این مقاله آمده است:
باخت در این بازی کشنده خواهد بود. این احتمالات از نظر تئوری به این معنی است که ما باید به آرامی (اگر اصلا) به سمت هدف هوش مصنوعی قدرتمندتر حرکت کنیم.
کوهن اضافه می کند که در تئوری نیازی به عجله در چنین چیزی نیست. هر مسابقه ای بر اساس این سوء تفاهم است [یا پیشفرض بحثنشدنی] ما می دانیم چگونه آن را کنترل کنیم. با توجه به درک فعلی ما، چنین توسعه ای مفید نیست. مگر اینکه در حال حاضر کاری جدی انجام دهیم تا بفهمیم چگونه کنترل کامل اوضاع را در دست بگیریم.
تهدید هوش مصنوعی فوق پیشرفته یک نگرانی آشنا در جامعه بشری است. ترس از اینکه هوش مصنوعی بشریت را نابود کند بسیار شبیه ترس از این است که اشکال حیات فرازمینی ممکن است بشریت را نابود کند و این مشکل خود شبیه ترس از درگیری تمدن های بیگانه و جمعیت آنها با یکدیگر در یک درگیری بزرگ است.
در مورد هوش مصنوعی، علاوه بر تمام مشکلات کلی، مفروضاتی نیز وجود دارد که وجود آنها در نهایت به بدبینی یا نگاه های محتاطانه و به گفته برخی به این دیدگاه های ضد اجتماعی معنا می بخشد. ما در اینجا در مورد فرضیاتی صحبت می کنیم که نویسنده این مقاله می گوید تقریباً کاملاً “ناخواسته یا خیالی” هستند.
در واقع، اینکه برنامههای هوش مصنوعی ممکن است روزی مانند انسانها شوند، از هر نظر از آنها پیشی بگیرند، بدون کنترل کافی به حال خود رها شوند و در نهایت به رقابت با انسانها برای منابع در یک بازی حاصل جمع صفر برسند، همه فرضیههای ممکن است. درست است، واقعی؛ با این حال، آنها را نمی توان نادیده گرفت و کاملا غیرممکن دانست.
باید مراقب باشیم که همین الان و درست در همین لحظه که این مقاله را می خوانید، سیستم های الگوریتمی که ما آن را «هوش مصنوعی» می نامیم، در برخی موارد به زندگی برخی افراد آسیب زده یا نابود می کنند! شاید در ابتدا چنین سخنی بدبینانه یا غیراصولی به نظر برسد. اما در اینجا صحبت از الگوریتمهای هوش مصنوعی و اثرات بسیار بزرگ و مضر آنها است که حتی بدون این ابر هوش ممکن در دهههای آینده، جامعه را تغییر داده و تغییراتی در آن ایجاد میکند.
خدیجه عبدالرحمنمدیر We Be Imagining در دانشگاه کلمبیا، محقق فناوری در مرکز مطالعات اینترنتی انتقادی UCLA، در مقاله جدیدی برای مجله Logic به همین چالش ها می پردازد و روش هایی را شرح می دهد که در آن الگوریتم های موجود در سیستم رفاه کودکان می توانند به صورت نژادپرستانه برای توجیه افزایش تعصب داشته باشند. نظارت و پلیس برای خانواده های سیاه پوست و سیاه پوست اعمال می شود. عبدالرحمن در مصاحبه با مادربرد گفت:
من فکر می کنم این فقط یک موضوع اولویت نیست. زیرا این موارد در نهایت وضعیت فعلی را شکل می دهد. این چیزی است که من سعی می کنم با رفاه بچه ها به آن برسم. این صرفاً این نیست که آیا اشتباه یا مذموم طبقه بندی نامتناسب سیاهان به عنوان عناصر بیمارگونه یا انحرافی است.
از طریق این شکل طبقه بندی، سیستم حرکت افراد را هدایت می کند و اشکال جدیدی از چارچوب ها و بیدونبیدهای کلیشه ای تولید می کند. در آن زمان با سیستمی مواجه خواهیم شد که مانند سیستم های انسانی می تواند در مورد نوع روابط، تولد افراد، آمادگی جسمانی آنها و … نظر یا سلیقه بیان کند.
الگوریتمها قبلاً پلیس نژادپرستانه را به «پلیس پیشبینیکننده» تبدیل کردهاند که نظارت و بیرحمی را در صورت لزوم علیه اقلیتهای نژادی توجیه میکند. الگوریتمها ریاضت را بهعنوان اصلاحات رفاهی نامگذاری کردند و استدلالهای رد شده را دیجیتالی کردند مبنی بر اینکه برنامههای رفاهی بودجهها را به دلیل سوء استفاده دریافتکنندگان (غیر سفیدپوست) افزایش میدهند. الگوریتمها برای توجیه تصمیمگیریها در مورد اینکه چه کسی چه منابعی را دریافت میکند و تصمیمهایی که قبلاً در جامعه ما گرفته شده است و تبعیض، طرد و استثمار را هدف قرار میدهد، استفاده میشود.
تبعیض در الگوریتم ها از بین نمی رود. بلکه ساختار و شالوده به جریان زندگی می دهد و در صورت لزوم آن را محدود می کند و به آن اطلاع می دهد. مسائل مربوط به پلیس، مسکن، مراقبت های بهداشتی، حمل و نقل همگی با در نظر گرفتن تبعیض نژادی طراحی شده اند. اگر به الگوریتم ها اجازه دهیم نه تنها این طرح ها را پنهان کنند. اما اگر آنها بتوانند منطق خود را عمیق تر بسط دهند چه؟
در اینجا این نگرانی وجود دارد که دیدگاه بلندمدت که عمیقاً خطر انقراض بشریت را مورد توجه قرار می دهد، رنج و مشکلات کنونی مردم را به دلیل الگوریتم های مورد استفاده در جامعه مبتنی بر استثمار و اجبار همه به ویژه اقلیت های نژادی نادیده می گیرد. او می گوید:
من شخصاً نگران خاموش کردن هوش مصنوعی فوق هوشمند نیستم. به نظر می رسد ترس از خدا باشد [اشاره استعاری به مرگ] بودن؛ اما نکته نگران کننده این است که اخلاق مبتنی بر هوش مصنوعی چیزی نیست که بتوانیم در یک نگاه به راحتی در یک انتهای طیف قرار دهیم. انصافاً همینطور است. در واقع سوالات مختلفی مطرح می شود. سوالاتی از این قبیل که اخلاق دقیقا چیست؟ چگونه آن را تعریف کنیم؟ اخلاق صادقانه چگونه خواهد بود؟
عبدالرحمن افزود:
من فکر می کنم ما واقعا باید تعامل خود را با این مسائل عمیق تر کنیم. من با نحوه مذاکره مجدد برنامه ها در مورد قرارداد اجتماعی یا چشم انداز آن موافق نیستم. ما باید از جامعه متخصصان و متخصصان هوش مصنوعی بپرسیم که دقیقاً به چه نوع قرارداد اجتماعی نیاز داریم؟
واضح است که در حال حاضر کارهای زیادی برای کاهش یا از بین بردن آسیب های ناشی از الگوریتم های مرسوم (در مقابل فوق هوشمند) برای انسان ها وجود دارد. تمرکز بر ریسک وجودی می تواند حواس را از این تصویر منحرف کند. اما همچنین مستلزم آن است که در مورد نحوه طراحی این سیستم ها و اثرات منفی آنها به دقت فکر کنیم. کوهن گفت:
چیزی که می توانیم از این نوع استدلال بیاموزیم این است که شاید به جای اینکه کورکورانه منتظر باشیم تا کاری را که امیدوارند انجام دهند، باید به عوامل مصنوعی که امروزه استفاده می کنیم، مشکوک تر باشیم. فکر می کنم بتوانیم به آنجا برسیم.