آیا هوش مصنوعی میتواند باعث انقراض انسان شود؟
ممکن است هشدارهای برخی از رهبران و مدیران ارشد صنعت رباتیک در مورد هوش مصنوعی را شنیده باشید. این افراد در مورد پتانسیل این فناوری نه برای پیشرفت انسان، بلکه برای سوء استفاده و حتی انقراض انسان هشدار دادند.
نیویورک تایمز میگوید: «بعضی از افراد هشدار میدهند که هوش مصنوعی میتواند به اندازهای قدرتمند شود که اگر کاری برای کاهش سرعت پیشرفت آن انجام نشود، ظرف چند سال اختلالهایی در مقیاس اجتماعی ایجاد کند. البته تا به امروز، محققان توضیحی در مورد چگونگی وقوع آن ارائه نکرده اند.»
اخیرا گروهی از کارشناسان صنعت هشدار دادهاند که هوش مصنوعی میتواند موجودیت بشر را تهدید کند در نامهی سرگشادهی یک خطی که توسط سازمان غیر انتفاعی مرکز ایمنی هوش مصنوعی آمده است: «کاهش خطر انقراض انسان توسط هوش مصنوعی باید یک اولویت جهانی در کنار سایر خطرات در مقیاس اجتماعی مثل همهگیریها و جنگ هستهای قرار بگیرد.»
این بیانیه توسط بیش از 350 مدیر، محقق و مهندس در زمینه هوش مصنوعی، مانند سام آلتمن، مدیر عامل OpenAI، و همچنین جفری هینتون و یوشوا بنجیو، دو محقق برنده جایزه تورینگ، امضا شد. این اعلامیه یک پیشگویی محسوب می شود، اما جزئیات کافی در مورد چگونگی وقوع آخرالزمان هوش مصنوعی ارائه نمی کند.
دن هندریکس، مدیر مرکز ایمنی هوش مصنوعی، میگوید: «یکی از سناریوهای قابل قبول این است که هوش مصنوعی به دست افراد خطرناک برسد و از آن برای تولید سلاحهای زیستی جدید کشندهتر از همهگیریهای طبیعی استفاده کنند. یا به جای تولید سلاح، هوش مصنوعی را طوری جهتدهی کنند که با انجام فعالیتهای سرکشانهی مختلف به بشر آسیب برساند.»
هندریکس معتقد است که اگر هوش مصنوعی به اندازه کافی هوشمند یا توانمند باشد، می تواند خطرات قابل توجهی برای جامعه ایجاد کند. خطر دیگر استفاده هکرها از آن برای فعالیت های مخرب است. اریک اشمیت، مدیر عامل سابق گوگل، در یکی از سخنرانی های خود گفت: سناریوهایی برای آینده وجود دارد که در آن از هوش مصنوعی در مسائل سایبری و همچنین در زیست شناسی استفاده می شود.
اشمیت فکر می کند این سوال در حال حاضر دور از ذهن به نظر می رسد، اما توسعه سریع هوش مصنوعی احتمال وقوع آن را بیشتر می کند. او می گوید: باید برای روزی که چنین اتفاقی بیفتد آماده باشیم تا بتوانیم با روش های مطمئن از سوء استفاده افراد شرور جلوگیری کنیم.
یک نگرانی دیگر در این مورد سرکش شدن خود به خودی هوش مصنوعی است. تام چیورز، روزنامهنگار و نویسنده علمی در مصاحبهای گفت: هوش مصنوعی که برای رهایی از سرطان طراحی شده است، میتواند یاد بگیرد که موشکهای هستهای را منفجر کند تا تمام سلولهای سرطانی را نابود کند.
او میگوید: «پس ترس این نیست که هوش مصنوعی مخرب شود، بلکه ترس از توانمند شدن آن است. ابزارهای هوش مصنوعی فقط به بالا بردن نتیجه فکر میکنند و همین موضوع آن را از چیزی که به آن انسانیت میگوییم دور کرده، احتمال بروز اشتباهات وحشتناک را بالا میبرد.»
با توجه به تمام این موضوعات، این روزها بحث راههای تنظیم و مهار هوش مصنوعی بسیار داغ شده است. گروهی از کارشناسان هوش مصنوعی، مدیران صنعت فناوری و دانشمندان پیشنهاد کردهاند جلوی رقابت برای توسعه و استقرار ذهنهای دیجیتالی قدرتمند گرفته شود تا مسیر پیشرفت این فناوری از کنترل خارج نشود.
آنها گفتهاند که باید آموزش سیستمهای هوش مصنوعی متوقف شود و دولت موظف به دخالت در این موضوع است. آلتمن در این مورد میگوید: «برای اطمینان از اینکه توسعه اَبَر هوشی به گونهای ایمن اتفاق میافتد و به صورت روان و ملایم با سیستمهای موجود در جامعه ادغام میشود، باید همه با هم هماهنگ شوند.»
آسوشیتدپرس میگوید: «دولت ایالات متحده به طور علنی در حال سنجش فرصتها و خطرات هوش مصنوعی است. سی ان ان گزارش داد که بایدن با مدیران ارشد اجرایی فناوری دربارهی اهمیت توسعهی اخلاقی و مسئولانهی هوش مصنوعی گفتوگو کرده اتس. در ماه می، کاخ سفید از نقشهی راه برای سرمایهگذاری فدرال در تحقیق و توسعه رونمایی کرد که نوآوری مسئولانهای را ترویج میدهد که در خدمت منافع عمومی است، از حقوق و ایمنی مردم محافظت میکند و از ارزشهای دموکراتیک هم حمایت میکند. همچنین دولت به امکان تنظیم صنعت هوش مصنوعی در آینده اشاره کرده است.»
به صفحه اصلی تیزرینگ سر بزنید