بزرگان فناوری نگران خوبی های هوش مصنوعی هستند!!!

دانشمندان و بزرگان فناوری هر یک در مقاطع زمانی مختلف نگرانی خود را از بابت هوش مصنوعی اعلام کرده‌اند. نکته جالبی در صحبت‌های این افراد وجود دارد، هر یک از آن‌ها از دریچه دید خود به آن نگاه کرده‌اند، اما همگی متفق‌القول هستند که هوشمندی بیش از اندازه هوش‌ مصنوعی دردسرهای جدی را به همراه خواهد داشت. در ادامه، نگاهی به دیدگاه‌های این افراد خواهیم داشت.

  • استفن هاوکینگ

جان اولیور در یک برنامه تلویزیونی از هاوکینگ سؤال کرد: «همانند بسیاری از مصنوعات هوشمند، آیا هوش‌ مصنوعی برای ما مضر یا اصلاً کشنده است؟»

هاوکینگ در پاسخ به او گفت: «هوش‌ مصنوعی در آینده‌ای نه چندان دور به یک خطر واقعی تبدیل می‌شود.»

 اولیور در ادامه از هاوکینگ سؤال کرد: «چرا من نباید از مبارزه با یک روبات هیجان‌زده شوم؟»

 هاوکینگ یک پاسخ علمی به او داد: «شما در این مبارزه بازنده خواهید بود.»

اولیور در ادامه به هاوکینگ گفت اگر این ابرکامپیوتر قدرتمند وجود نداشت، شما نمی‌توانستید با من به گفت‌وگو بپردازید.

هاوکینگ به او جواب داد: «تو یک احمق هستی.»

هاوکینگ در پایان صحبت‌های خود هشدار داد، این احتمال وجود دارد که روبات‌ها راهی برای ارتقا و پیش‌رفت خود پیدا کنند، پیش‌رفتی که دقیقاً به نفع انسان‌ها نباشد. همچنین در جایی دیگر فرمودند: “طراحی موفقیت‌آمیز هوش مصنوعی بزرگ‌ترین رخداد تاریخ بشریت است. اما متأسفانه این اختراع می‌تواند پایان راه بشریت باشد، مگر آن‌که یاد بگیریم چگونه از به وجود آمدن خطر پیشگیری‌ کنیم.” 

همچنین می فرماید: می‌گوید: «تلاش برای ساخت ماشین‌هایی که توانایی فکر کردن دارند، تهدیدی جدی برای موجودیت انسان‌ها به شمار می‌رود. تلاش برای طراحی هوش‌ مصنوعی کامل (هوشمندی کامل اکنون در اختیار انسان‌ها قرار دارد) به معنای تلاش برای پایان دادن به بشریت است.» پروفسور هاوکینگ بر این باور است که شکل فعلی و ابتدایی هوش مصنوعی که ما این روزها از آن استفاده می‌کنیم، برای ما کارآمد و قابل قبول است. اما نگرانی او از بابت ساخت ماشین‌هایی است که جلوتر از انسان‌ها باشند. هاوکینگ در بخشی از صحبت‌های خود می‌گوید: «هوش‌ مصنوعی این توانایی را دارد که خود را خاموش و اقدام به بازطراحی قدرتمندتری از خود کند. اما در نقطه مقابل تکامل بیولوژیکی انسان‌ها قرار دارد که با سرعت کمی همراه است و نمی‌تواند با هوش‌ مصنوعی به رقابت بپردازد. اما مردم از این موضوع اطلاع ندارند. در حالی‌ که در کوتاه‌مدت تأثیر هوش‌ مصنوعی به کنترلی بستگی دارد که روی آن اعمال می‌شود. در درازمدت تأثیر آن به این موضوع بستگی دارد که آیا اصلاً قابل کنترل خواهد بود یا نه؟»

  • استیو وزنیاک

«هر کاری که انجام می‌دهید باید حداقل کمی تفریح در آن وجود داشته باشد، اما هر ایده‌ای که می‌تواند جهان ما را تغییر ‌دهد، لزوماً با اهمیت نیست. من عاشق فناوری هستم و خود شخصاً آن ‌را مورد آزمایش قرار می‌دهم. من حداقل پنج آی‌فون و چند تا گوشی آندروییدی دارم. من آینده‌ای را تصور می‌کنم که ماشین‌ها بتوانند به فرزندان ما آموزش دهند، اما بیش از اندازه هوش‌ مصنوعی را هوشمند کرده‌ایم و این اتفاق از مدت‌ها قبل آغاز شده است. ماشین‌ها دویست سال پیش برنده شده‌اند. ما آن‌ها را بیش از اندازه مهم کرده‌ایم و همین موضوع باعث می‌شود تا هوش‌ مصنوعی تهدیدی جدی برای بقای ما باشد. در حال حاضر، خلاقیت مهم‌ترین ابزاری است که انسان‌ها در اختیار دارند. شبیه به افرادی همچون هاوکینگ و ماسک، من هم بر این باور هستم که آینده ترسناک و بسیار بسیار بدی در انتظار بشریت قرار دارد. اگر دستگاه‌هایی طراحی کنیم که مراقب تمام حالات ما باشد، سرانجام آن‌ها می‌توانند سریع‌تر از انسان‌ها فکر کنند و به‌راحتی از دست انسان‌ها خلاص شوند.» او در ادامه صحبت‌های خود افزود: «از این موضوع نگران هستم که روزگاری ما به حیوانات خانگی ماشین‌ها تبدیل شویم. »

 
  • ایلان ماسک

در مصاحبه‌ای که ایلان ماسک با CNBC داشت، اعلام کرد بیش از اندازه نگران هوش‌ مصنوعی است و این احتمال وجود دارد که هوش مصنوعی به چشم شیطان تبدیل شود. ماسک در ادامه صحبت‌های خود افزود: «فیلم‌های مختلفی در این زمینه وجود دارد، «ترمیناتور» یکی از آن‌ها است. نتایجی که در این فیلم‌ها نشان داده می‌شود، بسیار ترسناک است. ما باید اطمینان حاصل کنیم هوش‌ مصنوعی پیامدهای خوبی برای ما همراه دارد. اما این دیدگاه خوب یک عیب بزرگ نیز دارد. شما نمی‌توانید اطمینان حاصل کنید همه چیز خوب پیش می‌رود. در حال حاضر، تقلید از مغز انسان یک سرگرمی محسوب می‌شود، اما در آینده اوضاع رنگ دیگری به خود خواهد گرفت.» او در ادامه صحبت‌های خود افزود: «بهترین روش برای پیش‌گیری از چنین پیامدی پیاده‌سازی مکانیسم کنترل انسانی است».

ایشان می‌گوید آینده خطرناکی را مشاهده می‌کند که پر از ماشین‌های فوق‌العاده هوشمند است. او در توییتی که در سوم اوت سال گذشته میلادی منتشر کرد، اعلام کرد: «ما باید بیش از اندازه مراقب هوش‌ مصنوعی باشیم. هوش‌ مصنوعی این ظرفیت را دارد که خطرناک‌تر از سلاح‌های هسته‌ای باشد». 

  • لینوس توروالدز

لینوس به صورت خوشبینانه به موضوع هوش مصنوعی پرداخته است. او می‌گوید افرادی که از هوش‌ مصنوعی هراس دارند، انسان‌های ساده‌لوحی هستند. او در صحبت‌های خود به نقاط قوت هوش‌ مصنوعی اشاره می‌کند و می‌گوید ما هیچ‌گاه شاهد ظهور هوش مخربی همچون اسکای‌نت (در فیلم «ترمیناتور») نخواهیم بود. او معتقد است، کارشناسان این توانایی را دارند تا از هوش‌ مصنوعی در زمینه برنامه‌ریزی یا ترجمه زبان‌ها به یکدیگر استفاده کنند. او بر این باور است که برنامه‌هایی شبیه Google Now یا سیری چیزی بیش از یک خیال‌بافی نیستند و این برنامه‌ها ظرفیت آن ‌را ندارند تا در مقام هوش انسانی به فعالیت‌های خود بپردازند. 

  • بیل گیتس

بیل گیتس زمانی ‌که صحبت از هوش‌ مصنوعی به میان می‌آید، نگران است که هوش‌ مصنوعی به تهدیدی برای بشریت تبدیل شود. در جلسه ای که توسط Reddit برگزار شد، بیل ‌گیتس گفت: «می‌ترسم هوش‌ مصنوعی به چنان ظرفیت و پتانسلی دست یابد که داستان‌های فیلم‌های «ترمیناتور» و سه‌گانه «ماتریکس» به واقعیت تبدیل شود.»

 او صحبت‌‌های خود را این ‌گونه ادامه داد: «من در همان کمپینی هستم که نگران هوش‌ مصنوعی است. ماشین‌ها کارهای عادی زیادی برای ما انجام می‌دهند، در نتیجه نمی‌توانند زیاد باهوش باشند. کنترل کردن آن‌ها ایده خوبی است. اما بعد از گذشت چند دهه، هوش‌ مصنوعی به‌قدری قدرتمند خواهد شد که باید درباره آن نگران باشیم. من با ایلان ماسک و دیگران در این مورد موافق هستم، اما متوجه نمی‌شوم چرا دیگران از این بابت نگران نیستند».

  • استوارت راسل

در مصاحبه سایت NPR با راسل، راسل از بابت ساخت سلاح‌های هوشمندی هشدار داد که مستقل از انسان‌ها کار می‌کنند. راسل صحبت‌های خود را این ‌گونه آغاز کرد یک هواپیمای بدون سرنشین وسیله خودرانی است که از راه دور کنترل می‌شود. در این‌جا یک انسان این هواپیما را کنترل می‌کند و با استفاده از دوربین نصب شده روی هواپیما به مشاهده مناظر می‌پردازد. انسان تصمیم ‌می‌گیرد هدف چیست و آیا باید به هدف شناسایی شده موشکی شلیک شود یا خیر. اما برای یک سلاح هوشمند اوضاع به ‌گونه دیگری رقم می‌خورد، به‌ طوری که سلاح خود تصمیم می‌گیرد اکنون باید چه کاری انجام دهد. سلاح هوشمند خود تصمیم می‌گیرد به کجا برود. یک سلاح هوشمند خود تصمیم می‌گیرد هدفش را انتخاب کند و در نهایت خود تصمیم می‌گیرد چه کسی را باید به قتل برساند.

پیشنهاد مطالعه

راهنمای مقاله