دانشمندان و بزرگان فناوری هر یک در مقاطع زمانی مختلف نگرانی خود را از بابت هوش مصنوعی اعلام کردهاند. نکته جالبی در صحبتهای این افراد وجود دارد، هر یک از آنها از دریچه دید خود به آن نگاه کردهاند، اما همگی متفقالقول هستند که هوشمندی بیش از اندازه هوش مصنوعی دردسرهای جدی را به همراه خواهد داشت. در ادامه، نگاهی به دیدگاههای این افراد خواهیم داشت.
- استفن هاوکینگ
جان اولیور در یک برنامه تلویزیونی از هاوکینگ سؤال کرد: «همانند بسیاری از مصنوعات هوشمند، آیا هوش مصنوعی برای ما مضر یا اصلاً کشنده است؟»
هاوکینگ در پاسخ به او گفت: «هوش مصنوعی در آیندهای نه چندان دور به یک خطر واقعی تبدیل میشود.»
اولیور در ادامه از هاوکینگ سؤال کرد: «چرا من نباید از مبارزه با یک روبات هیجانزده شوم؟»
هاوکینگ یک پاسخ علمی به او داد: «شما در این مبارزه بازنده خواهید بود.»
اولیور در ادامه به هاوکینگ گفت اگر این ابرکامپیوتر قدرتمند وجود نداشت، شما نمیتوانستید با من به گفتوگو بپردازید.
هاوکینگ به او جواب داد: «تو یک احمق هستی.»
هاوکینگ در پایان صحبتهای خود هشدار داد، این احتمال وجود دارد که روباتها راهی برای ارتقا و پیشرفت خود پیدا کنند، پیشرفتی که دقیقاً به نفع انسانها نباشد. همچنین در جایی دیگر فرمودند: “طراحی موفقیتآمیز هوش مصنوعی بزرگترین رخداد تاریخ بشریت است. اما متأسفانه این اختراع میتواند پایان راه بشریت باشد، مگر آنکه یاد بگیریم چگونه از به وجود آمدن خطر پیشگیری کنیم.”
همچنین می فرماید: میگوید: «تلاش برای ساخت ماشینهایی که توانایی فکر کردن دارند، تهدیدی جدی برای موجودیت انسانها به شمار میرود. تلاش برای طراحی هوش مصنوعی کامل (هوشمندی کامل اکنون در اختیار انسانها قرار دارد) به معنای تلاش برای پایان دادن به بشریت است.» پروفسور هاوکینگ بر این باور است که شکل فعلی و ابتدایی هوش مصنوعی که ما این روزها از آن استفاده میکنیم، برای ما کارآمد و قابل قبول است. اما نگرانی او از بابت ساخت ماشینهایی است که جلوتر از انسانها باشند. هاوکینگ در بخشی از صحبتهای خود میگوید: «هوش مصنوعی این توانایی را دارد که خود را خاموش و اقدام به بازطراحی قدرتمندتری از خود کند. اما در نقطه مقابل تکامل بیولوژیکی انسانها قرار دارد که با سرعت کمی همراه است و نمیتواند با هوش مصنوعی به رقابت بپردازد. اما مردم از این موضوع اطلاع ندارند. در حالی که در کوتاهمدت تأثیر هوش مصنوعی به کنترلی بستگی دارد که روی آن اعمال میشود. در درازمدت تأثیر آن به این موضوع بستگی دارد که آیا اصلاً قابل کنترل خواهد بود یا نه؟»
- استیو وزنیاک
«هر کاری که انجام میدهید باید حداقل کمی تفریح در آن وجود داشته باشد، اما هر ایدهای که میتواند جهان ما را تغییر دهد، لزوماً با اهمیت نیست. من عاشق فناوری هستم و خود شخصاً آن را مورد آزمایش قرار میدهم. من حداقل پنج آیفون و چند تا گوشی آندروییدی دارم. من آیندهای را تصور میکنم که ماشینها بتوانند به فرزندان ما آموزش دهند، اما بیش از اندازه هوش مصنوعی را هوشمند کردهایم و این اتفاق از مدتها قبل آغاز شده است. ماشینها دویست سال پیش برنده شدهاند. ما آنها را بیش از اندازه مهم کردهایم و همین موضوع باعث میشود تا هوش مصنوعی تهدیدی جدی برای بقای ما باشد. در حال حاضر، خلاقیت مهمترین ابزاری است که انسانها در اختیار دارند. شبیه به افرادی همچون هاوکینگ و ماسک، من هم بر این باور هستم که آینده ترسناک و بسیار بسیار بدی در انتظار بشریت قرار دارد. اگر دستگاههایی طراحی کنیم که مراقب تمام حالات ما باشد، سرانجام آنها میتوانند سریعتر از انسانها فکر کنند و بهراحتی از دست انسانها خلاص شوند.» او در ادامه صحبتهای خود افزود: «از این موضوع نگران هستم که روزگاری ما به حیوانات خانگی ماشینها تبدیل شویم. »
- ایلان ماسک
در مصاحبهای که ایلان ماسک با CNBC داشت، اعلام کرد بیش از اندازه نگران هوش مصنوعی است و این احتمال وجود دارد که هوش مصنوعی به چشم شیطان تبدیل شود. ماسک در ادامه صحبتهای خود افزود: «فیلمهای مختلفی در این زمینه وجود دارد، «ترمیناتور» یکی از آنها است. نتایجی که در این فیلمها نشان داده میشود، بسیار ترسناک است. ما باید اطمینان حاصل کنیم هوش مصنوعی پیامدهای خوبی برای ما همراه دارد. اما این دیدگاه خوب یک عیب بزرگ نیز دارد. شما نمیتوانید اطمینان حاصل کنید همه چیز خوب پیش میرود. در حال حاضر، تقلید از مغز انسان یک سرگرمی محسوب میشود، اما در آینده اوضاع رنگ دیگری به خود خواهد گرفت.» او در ادامه صحبتهای خود افزود: «بهترین روش برای پیشگیری از چنین پیامدی پیادهسازی مکانیسم کنترل انسانی است».
ایشان میگوید آینده خطرناکی را مشاهده میکند که پر از ماشینهای فوقالعاده هوشمند است. او در توییتی که در سوم اوت سال گذشته میلادی منتشر کرد، اعلام کرد: «ما باید بیش از اندازه مراقب هوش مصنوعی باشیم. هوش مصنوعی این ظرفیت را دارد که خطرناکتر از سلاحهای هستهای باشد».
- لینوس توروالدز
لینوس به صورت خوشبینانه به موضوع هوش مصنوعی پرداخته است. او میگوید افرادی که از هوش مصنوعی هراس دارند، انسانهای سادهلوحی هستند. او در صحبتهای خود به نقاط قوت هوش مصنوعی اشاره میکند و میگوید ما هیچگاه شاهد ظهور هوش مخربی همچون اسکاینت (در فیلم «ترمیناتور») نخواهیم بود. او معتقد است، کارشناسان این توانایی را دارند تا از هوش مصنوعی در زمینه برنامهریزی یا ترجمه زبانها به یکدیگر استفاده کنند. او بر این باور است که برنامههایی شبیه Google Now یا سیری چیزی بیش از یک خیالبافی نیستند و این برنامهها ظرفیت آن را ندارند تا در مقام هوش انسانی به فعالیتهای خود بپردازند.
- بیل گیتس
بیل گیتس زمانی که صحبت از هوش مصنوعی به میان میآید، نگران است که هوش مصنوعی به تهدیدی برای بشریت تبدیل شود. در جلسه ای که توسط Reddit برگزار شد، بیل گیتس گفت: «میترسم هوش مصنوعی به چنان ظرفیت و پتانسلی دست یابد که داستانهای فیلمهای «ترمیناتور» و سهگانه «ماتریکس» به واقعیت تبدیل شود.»
او صحبتهای خود را این گونه ادامه داد: «من در همان کمپینی هستم که نگران هوش مصنوعی است. ماشینها کارهای عادی زیادی برای ما انجام میدهند، در نتیجه نمیتوانند زیاد باهوش باشند. کنترل کردن آنها ایده خوبی است. اما بعد از گذشت چند دهه، هوش مصنوعی بهقدری قدرتمند خواهد شد که باید درباره آن نگران باشیم. من با ایلان ماسک و دیگران در این مورد موافق هستم، اما متوجه نمیشوم چرا دیگران از این بابت نگران نیستند».
- استوارت راسل
در مصاحبه سایت NPR با راسل، راسل از بابت ساخت سلاحهای هوشمندی هشدار داد که مستقل از انسانها کار میکنند. راسل صحبتهای خود را این گونه آغاز کرد یک هواپیمای بدون سرنشین وسیله خودرانی است که از راه دور کنترل میشود. در اینجا یک انسان این هواپیما را کنترل میکند و با استفاده از دوربین نصب شده روی هواپیما به مشاهده مناظر میپردازد. انسان تصمیم میگیرد هدف چیست و آیا باید به هدف شناسایی شده موشکی شلیک شود یا خیر. اما برای یک سلاح هوشمند اوضاع به گونه دیگری رقم میخورد، به طوری که سلاح خود تصمیم میگیرد اکنون باید چه کاری انجام دهد. سلاح هوشمند خود تصمیم میگیرد به کجا برود. یک سلاح هوشمند خود تصمیم میگیرد هدفش را انتخاب کند و در نهایت خود تصمیم میگیرد چه کسی را باید به قتل برساند.