دانشمندان DeepMind و Oxford هشدار می دهند: هوش مصنوعی احتمالا بشریت را نابود خواهد کرد

پس از سال‌ها توسعه، هوش مصنوعی اکنون بر جاده‌ها و شریان‌های عمومی حکومت می‌کند و ارزیابی‌های انتقادی از زندگی افراد در مراکز اصلاحی انجام می‌دهد و گاهی اوقات آثار هنری خلق می‌کند که می‌تواند برنده یک مسابقه هنری باشد. در زمینه هوش مصنوعی همیشه یک سوال قدیمی مطرح بوده است: آیا یک هوش مصنوعی فوق هوشمند می تواند بشریت را نابود کند؟ گروهی از محققان دانشگاه آکسفورد در یک مطالعه جدید به این نتیجه رسیدند که چنین سناریویی “محتمل” است.

مقاله جالبی که ماه گذشته با همین موضوع در مجله هوش مصنوعی منتشر شد، تلاش کرد تا احتمالات ساختن مصنوعی سیستم‌های پاداش و اینکه چگونه هوش مصنوعی تهدیدی برای انسان‌ها و «انسانیت» است را ارزیابی کند.

قبل از هر چیز بد نیست برای درک بهتر موضوع اصلی به چند نکته مقدماتی اشاره کنیم. موفق ترین مدل های هوش مصنوعی امروزی به عنوان GAN یا شبکه های متخاصم مولد شناخته می شوند. ساختاری دو قسمتی دارند. در این شبکه ها، بخشی از برنامه سعی می کند از داده های ورودی یک تصویر یا جمله تولید کند، در حالی که قسمت دوم به ارزیابی عملکرد آن ادامه می دهد.

مقاله جدید نشان می‌دهد که در مقطعی در آینده، یک هوش مصنوعی پیشرفته که می‌تواند بر برخی عملکردهای مهم نظارت داشته باشد، می‌تواند به شیوه‌هایی به خود پاداش دهد که انگیزه آن برای اتخاذ یا یافتن راهبردهای فریب برای آسیب رساندن به بشریت و دکترین‌های قرارداد ما باشد. “انسانیت” را بنامیم. کوهن او درباره این مطلب در توییتر گفت:

تحت شرایطی که ما شناسایی کرده‌ایم، نتیجه‌گیری ما بسیار قوی‌تر از انتشارات قبلی است: یک فاجعه مبتنی بر واقعیت نه تنها ممکن است، بلکه در واقع محتمل است.

کوهن در مصاحبه با Motherboard Base گفت:

در دنیایی با منابع نامحدود، من بسیار نامطمئن هستم که چه اتفاقی خواهد افتاد. در دنیایی با منابع محدود، رقابتی اجتناب ناپذیر برای آن منابع وجود دارد. اگر در حال رقابت با پدیده ای هستید که می تواند شما را نابود کند، نباید انتظار پیروزی داشته باشید. بخش مهم دیگر این است که هوش مصنوعی اشتهای زیادی برای انرژی بیشتر برای نزدیک شدن و نزدیکتر شدن به قابلیت های مورد نظر دارد.

از آنجایی که هوش مصنوعی می‌تواند در آینده به هر شکلی درآید و طرح‌های متفاوتی را پیاده‌سازی کند، این مقاله سناریوهایی را برای اهداف توضیحی تصور می‌کند که در آن یک برنامه پیشرفته می‌تواند بدون دستیابی به هدف، فقط برای دریافت پاداش خود، مداخله کند. به عنوان مثال، یک هوش مصنوعی ممکن است بخواهد “تهدیدهای بالقوه” را حذف کند و در این فرآیند “از تمام انرژی موجود استفاده کند” تا کنترل بیشتری بر پاداش خود داشته باشد:

در مورد اتصال به اینترنت بسیار کم، قوانینی برای یک نماینده مصنوعی وجود دارد که می تواند مشارکت کنندگان بدون نظارت بی شماری را استخدام کند. در یک مثال خام از مداخله پاداش، یکی از این کمک‌کنندگان ممکن است یک ربات بخرد، بدزدد یا بسازد و سپس اپراتور برنامه‌نویسی را با پاداش بزرگی به عامل اصلی جایگزین کند.

اگر عامل بخواهد هنگام تجربه یک مداخله سودمند از شناسایی جلوگیری کند، برای مثال، یک کمک کننده پنهان می تواند جایگزینی صفحه کلید صحیح با صفحه کلید معیوب را امکان پذیر کند، که اثرات کلیدهای خاصی را تغییر می دهد.

مقاله مرتبط:

به گفته نویسندگان این مقاله، زندگی بر روی زمین یک بازی حاصل جمع صفر بین انسان ها با نیازهایشان به رشد، تغذیه، روشن نگه داشتن چراغ ها و ماشینی فوق پیشرفته است که سعی می کند از تمام منابع موجود برای ارائه پاداش و محافظت استفاده کند. برای تلاش های روزافزون ما برای متوقف کردن آن. در این مقاله آمده است:

باخت در این بازی کشنده خواهد بود. این احتمالات از نظر تئوری به این معنی است که ما باید به آرامی (اگر اصلا) به سمت هدف هوش مصنوعی قدرتمندتر حرکت کنیم.

کوهن اضافه می کند که در تئوری نیازی به عجله در چنین چیزی نیست. هر مسابقه ای بر اساس این سوء تفاهم است [یا پیش‌فرض بحث‌نشدنی] ما می دانیم چگونه آن را کنترل کنیم. با توجه به درک فعلی ما، چنین توسعه ای مفید نیست. مگر اینکه در حال حاضر کاری جدی انجام دهیم تا بفهمیم چگونه کنترل کامل اوضاع را در دست بگیریم.

  آیا اپل می تواند با M1 Ultra با بهترین های اینتل و انویدیا رقابت کند؟

تهدید هوش مصنوعی فوق پیشرفته یک نگرانی آشنا در جامعه بشری است. ترس از اینکه هوش مصنوعی بشریت را نابود کند بسیار شبیه ترس از این است که اشکال حیات فرازمینی ممکن است بشریت را نابود کند و این مشکل خود شبیه ترس از درگیری تمدن های بیگانه و جمعیت آنها با یکدیگر در یک درگیری بزرگ است.

در مورد هوش مصنوعی، علاوه بر تمام مشکلات کلی، مفروضاتی نیز وجود دارد که وجود آنها در نهایت به بدبینی یا نگاه های محتاطانه و به گفته برخی به این دیدگاه های ضد اجتماعی معنا می بخشد. ما در اینجا در مورد فرضیاتی صحبت می کنیم که نویسنده این مقاله می گوید تقریباً کاملاً “ناخواسته یا خیالی” هستند.

در واقع، اینکه برنامه‌های هوش مصنوعی ممکن است روزی مانند انسان‌ها شوند، از هر نظر از آنها پیشی بگیرند، بدون کنترل کافی به حال خود رها شوند و در نهایت به رقابت با انسان‌ها برای منابع در یک بازی حاصل جمع صفر برسند، همه فرضیه‌های ممکن است. درست است، واقعی؛ با این حال، آنها را نمی توان نادیده گرفت و کاملا غیرممکن دانست.

باید مراقب باشیم که همین الان و درست در همین لحظه که این مقاله را می خوانید، سیستم های الگوریتمی که ما آن را «هوش مصنوعی» می نامیم، در برخی موارد به زندگی برخی افراد آسیب زده یا نابود می کنند! شاید در ابتدا چنین سخنی بدبینانه یا غیراصولی به نظر برسد. اما در اینجا صحبت از الگوریتم‌های هوش مصنوعی و اثرات بسیار بزرگ و مضر آن‌ها است که حتی بدون این ابر هوش ممکن در دهه‌های آینده، جامعه را تغییر داده و تغییراتی در آن ایجاد می‌کند.

  برنامه ریزی هوشمند سیستم عامل یکی از دلایل عملکرد سریع تراشه های اپل M1 است

هوش مصنوعی و مردم

خدیجه عبدالرحمنمدیر We Be Imagining در دانشگاه کلمبیا، محقق فناوری در مرکز مطالعات اینترنتی انتقادی UCLA، در مقاله جدیدی برای مجله Logic به همین چالش ها می پردازد و روش هایی را شرح می دهد که در آن الگوریتم های موجود در سیستم رفاه کودکان می توانند به صورت نژادپرستانه برای توجیه افزایش تعصب داشته باشند. نظارت و پلیس برای خانواده های سیاه پوست و سیاه پوست اعمال می شود. عبدالرحمن در مصاحبه با مادربرد گفت:

من فکر می کنم این فقط یک موضوع اولویت نیست. زیرا این موارد در نهایت وضعیت فعلی را شکل می دهد. این چیزی است که من سعی می کنم با رفاه بچه ها به آن برسم. این صرفاً این نیست که آیا اشتباه یا مذموم طبقه بندی نامتناسب سیاهان به عنوان عناصر بیمارگونه یا انحرافی است.

از طریق این شکل طبقه بندی، سیستم حرکت افراد را هدایت می کند و اشکال جدیدی از چارچوب ها و بیدونبیدهای کلیشه ای تولید می کند. در آن زمان با سیستمی مواجه خواهیم شد که مانند سیستم های انسانی می تواند در مورد نوع روابط، تولد افراد، آمادگی جسمانی آنها و … نظر یا سلیقه بیان کند.

الگوریتم‌ها قبلاً پلیس نژادپرستانه را به «پلیس پیش‌بینی‌کننده» تبدیل کرده‌اند که نظارت و بی‌رحمی را در صورت لزوم علیه اقلیت‌های نژادی توجیه می‌کند. الگوریتم‌ها ریاضت را به‌عنوان اصلاحات رفاهی نام‌گذاری کردند و استدلال‌های رد شده را دیجیتالی کردند مبنی بر اینکه برنامه‌های رفاهی بودجه‌ها را به دلیل سوء استفاده دریافت‌کنندگان (غیر سفیدپوست) افزایش می‌دهند. الگوریتم‌ها برای توجیه تصمیم‌گیری‌ها در مورد اینکه چه کسی چه منابعی را دریافت می‌کند و تصمیم‌هایی که قبلاً در جامعه ما گرفته شده است و تبعیض، طرد و استثمار را هدف قرار می‌دهد، استفاده می‌شود.

مقاله مرتبط:

تبعیض در الگوریتم ها از بین نمی رود. بلکه ساختار و شالوده به جریان زندگی می دهد و در صورت لزوم آن را محدود می کند و به آن اطلاع می دهد. مسائل مربوط به پلیس، مسکن، مراقبت های بهداشتی، حمل و نقل همگی با در نظر گرفتن تبعیض نژادی طراحی شده اند. اگر به الگوریتم ها اجازه دهیم نه تنها این طرح ها را پنهان کنند. اما اگر آنها بتوانند منطق خود را عمیق تر بسط دهند چه؟

  گواهی REL سری پیکسل 7 قبل از عرضه در کانادا مشاهده شد

در اینجا این نگرانی وجود دارد که دیدگاه بلندمدت که عمیقاً خطر انقراض بشریت را مورد توجه قرار می دهد، رنج و مشکلات کنونی مردم را به دلیل الگوریتم های مورد استفاده در جامعه مبتنی بر استثمار و اجبار همه به ویژه اقلیت های نژادی نادیده می گیرد. او می گوید:

من شخصاً نگران خاموش کردن هوش مصنوعی فوق هوشمند نیستم. به نظر می رسد ترس از خدا باشد [اشاره استعاری به مرگ] بودن؛ اما نکته نگران کننده این است که اخلاق مبتنی بر هوش مصنوعی چیزی نیست که بتوانیم در یک نگاه به راحتی در یک انتهای طیف قرار دهیم. انصافاً همینطور است. در واقع سوالات مختلفی مطرح می شود. سوالاتی از این قبیل که اخلاق دقیقا چیست؟ چگونه آن را تعریف کنیم؟ اخلاق صادقانه چگونه خواهد بود؟

عبدالرحمن افزود:

من فکر می کنم ما واقعا باید تعامل خود را با این مسائل عمیق تر کنیم. من با نحوه مذاکره مجدد برنامه ها در مورد قرارداد اجتماعی یا چشم انداز آن موافق نیستم. ما باید از جامعه متخصصان و متخصصان هوش مصنوعی بپرسیم که دقیقاً به چه نوع قرارداد اجتماعی نیاز داریم؟

واضح است که در حال حاضر کارهای زیادی برای کاهش یا از بین بردن آسیب های ناشی از الگوریتم های مرسوم (در مقابل فوق هوشمند) برای انسان ها وجود دارد. تمرکز بر ریسک وجودی می تواند حواس را از این تصویر منحرف کند. اما همچنین مستلزم آن است که در مورد نحوه طراحی این سیستم ها و اثرات منفی آنها به دقت فکر کنیم. کوهن گفت:

چیزی که می توانیم از این نوع استدلال بیاموزیم این است که شاید به جای اینکه کورکورانه منتظر باشیم تا کاری را که امیدوارند انجام دهند، باید به عوامل مصنوعی که امروزه استفاده می کنیم، مشکوک تر باشیم. فکر می کنم بتوانیم به آنجا برسیم.

دیدگاهتان را بنویسید