تیزرینگ
تیزرینگ
آیا هوش مصنوعی می‌تواند باعث انقراض انسان شود؟

آیا هوش مصنوعی می‌تواند باعث انقراض انسان شود؟

آیا هوش مصنوعی می‌تواند باعث انقراض انسان شود؟

ممکن است هشدارهای برخی از رهبران و مدیران ارشد صنعت رباتیک در مورد هوش مصنوعی را شنیده باشید. این افراد در مورد پتانسیل این فناوری نه برای پیشرفت انسان، بلکه برای سوء استفاده و حتی انقراض انسان هشدار دادند.

نیویورک تایمز می‌گوید: «بعضی از افراد هشدار می‌دهند که هوش مصنوعی می‌تواند به اندازه‌ای قدرتمند شود که اگر کاری برای کاهش سرعت پیشرفت آن انجام نشود، ظرف چند سال اختلال‌هایی در مقیاس اجتماعی ایجاد کند. البته تا به امروز، محققان توضیحی در مورد چگونگی وقوع آن ارائه نکرده اند.»

اخیرا گروهی از کارشناسان صنعت هشدار داده‌اند که  هوش مصنوعی می‌تواند موجودیت بشر را تهدید کند در نامه‌ی سرگشاده‌ی یک خطی که توسط سازمان غیر انتفاعی مرکز ایمنی هوش مصنوعی آمده است: «کاهش خطر انقراض انسان توسط هوش مصنوعی باید یک اولویت جهانی در کنار سایر خطرات در مقیاس اجتماعی مثل همه‌گیری‌ها و جنگ هسته‌ای قرار بگیرد.»

این بیانیه توسط بیش از 350 مدیر، محقق و مهندس در زمینه هوش مصنوعی، مانند سام آلتمن، مدیر عامل OpenAI، و همچنین جفری هینتون و یوشوا بنجیو، دو محقق برنده جایزه تورینگ، امضا شد. این اعلامیه یک پیشگویی محسوب می شود، اما جزئیات کافی در مورد چگونگی وقوع آخرالزمان هوش مصنوعی ارائه نمی کند.

دن هندریکس، مدیر مرکز ایمنی هوش مصنوعی، می‌گوید: «یکی از سناریوهای قابل قبول این است که هوش مصنوعی به دست افراد خطرناک برسد و از آن برای تولید سلاح‌های زیستی جدید کشنده‌تر از همه‌گیری‌های طبیعی استفاده کنند. یا به جای تولید سلاح، هوش مصنوعی را طوری جهت‌دهی کنند که با انجام فعالیت‌های سرکشانه‌ی مختلف به بشر آسیب برساند.»

هندریکس معتقد است که اگر هوش مصنوعی به اندازه کافی هوشمند یا توانمند باشد، می تواند خطرات قابل توجهی برای جامعه ایجاد کند. خطر دیگر استفاده هکرها از آن برای فعالیت های مخرب است. اریک اشمیت، مدیر عامل سابق گوگل، در یکی از سخنرانی های خود گفت: سناریوهایی برای آینده وجود دارد که در آن از هوش مصنوعی در مسائل سایبری و همچنین در زیست شناسی استفاده می شود.

اشمیت فکر می کند این سوال در حال حاضر دور از ذهن به نظر می رسد، اما توسعه سریع هوش مصنوعی احتمال وقوع آن را بیشتر می کند. او می گوید: باید برای روزی که چنین اتفاقی بیفتد آماده باشیم تا بتوانیم با روش های مطمئن از سوء استفاده افراد شرور جلوگیری کنیم.

یک نگرانی دیگر در این مورد سرکش شدن خود به خودی هوش مصنوعی است. تام چیورز، روزنامه‌نگار و نویسنده علمی در مصاحبه‌ای گفت: هوش مصنوعی که برای رهایی از سرطان طراحی شده است، می‌تواند یاد بگیرد که موشک‌های هسته‌ای را منفجر کند تا تمام سلول‌های سرطانی را نابود کند.

او می‌گوید: «پس ترس این نیست که هوش مصنوعی مخرب شود، بلکه ترس از توانمند شدن آن است. ابزارهای هوش مصنوعی فقط به بالا بردن نتیجه فکر می‌کنند و همین موضوع آن را از چیزی که به آن انسانیت می‌گوییم دور کرده، احتمال بروز اشتباهات وحشتناک را بالا می‌برد.»

با توجه به تمام این موضوعات، این روزها بحث راه‌های تنظیم و مهار هوش مصنوعی بسیار داغ شده است. گروهی از کارشناسان هوش مصنوعی، مدیران صنعت فناوری و دانشمندان پیشنهاد کرده‌اند جلوی رقابت برای توسعه و استقرار ذهن‌های دیجیتالی قدرتمند گرفته شود تا مسیر پیشرفت این فناوری از کنترل خارج نشود.

آیا هوش مصنوعی می‌تواند

آن‌ها گفته‌اند که باید آموزش سیستم‌های هوش مصنوعی متوقف شود و دولت موظف به دخالت در این موضوع است. آلتمن در این مورد می‌گوید: «برای اطمینان از اینکه توسعه اَبَر هوشی به گونه‌ای ایمن اتفاق می‌افتد و به صورت روان و ملایم با سیستم‌های موجود در جامعه ادغام می‌شود، باید همه با هم هماهنگ شوند.»

آسوشیتدپرس می‌گوید: «دولت ایالات متحده به طور علنی در حال سنجش فرصت‌ها و خطرات هوش مصنوعی است. سی ان ان گزارش داد که بایدن با مدیران ارشد اجرایی فناوری درباره‌ی اهمیت توسعه‌ی اخلاقی و مسئولانه‌ی هوش مصنوعی گفت‌وگو کرده اتس. در ماه می، کاخ سفید از نقشه‌ی راه برای سرمایه‌گذاری فدرال در تحقیق و توسعه رونمایی کرد که نوآوری مسئولانه‌ای را ترویج می‌دهد که در خدمت منافع عمومی است، از حقوق و ایمنی مردم محافظت می‌کند و از ارزش‌های دموکراتیک هم حمایت می‌کند. همچنین دولت به امکان تنظیم صنعت هوش مصنوعی در آینده اشاره کرده است.»

به صفحه اصلی تیزرینگ سر بزنید

Rate this post
اشتراک گذاری

مطالب مرتبط

دیدگاهی بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *