هوش مصنوعی و آینده ترسناک بشر
- 8 ساعت پیش
بیچاره آدمها! اگر حرف دانشمندان و مهندسان و هنرمندان نگرانی که روز به روز هم بیشتر میشوند درست باشد، کار آدمها تمام است.
حتی پروفسور استیون هاوکینگ، فیزیکدان سرشناس بریتانیایی، هم به جمع هشداردهندگان پیوسته. میگوید اگر بشر وسیلهای بسازد، یا نرمافزاری بنویسد، که واقعا هوشمند باشد، معلوم نیست چه اتفاقی بیافتد. نگران است آن روز آغاز پایان کار آدمیزاد باشد.
یکی دو ماه پیش الون ماسک، رئیس شرکت تسلا، هم حرفهای مشابهی زده بود. گفته بود هوش مصنوعی افسارگسیخته "بزرگترین تهدید" برای موجودیت بشر است. گفته بود نگران است عاقبت همه ما له شدن زیر پاشنه موجوداتی حسابگر و بیعاطفه باشد، موجوداتی با هوش مصنوعی.
یک مورد دیگر پروفسور نیک بوستروم، استاد دانشگاه آکسفورد، است. او هم گفته ممکن است در عرض یک قرن موجوداتی با هوش مصنوعی دنیای ما را به آخر برسانند.
یا نمونه دیگر، ری کورزوایل، مدیر مهندسی گوگل است. او هم نگران هوش مصنوعی است، هرچند به دلایلی پیچیدهتر. او میگوید: "نوشتن الگوریتمی بهعنوان الگوی اخلاقی که آنقدر محکم باشد که نرمافزارهای فوق-هوشمند را مقید و مهار کند، کار آسانی نیست."
این دغدغه در سالهای اخیر دستمایه فیلمهای بسیاری هم بوده. فیلمهایی مثل ترمیناتور، ماتریکس، یا بلید رانر که در همه آنها انسان ضعیف در برابر دشمنی هولناک با هوش مصنوعی قرار میگیرد.
از نمونههای جدیدتر میتوان فیلم "او" اثر اسپایک جونز را نام برد، که رابطه عاشقانه انسان و سیستم عامل را به تصویر میکشد. یا اثر در دست تهیه الکس گارلند به نام "اکس ماشینا"، که به وجه انسانی یک ربات یا آندروید میپردازد. یا فیلم جدید از سری "انتقامجویان"، که در آن قهرمانان داستان با "اولتران" میجنگند – موجودی با هوش مصنوعی فوقالعاده که میخواهد بشر را نابود کند و حتما این کار را میکرد اگر قهرمانهایی مثل "تور"، "مرد آهنی" و دیگران نبودند.
حتی در عالم واقع، همین امروز هم نشانههایی میتوان دید که هوش انسان در برابر کامپیوتری که همه توانش را روی یک مسئله مشخص می گذارد، چقدر حقیر است. برنامههای شطرنج کامپیوتری از بهترین شطرنجبازان جهان که بگذریم بقیه انسانها را به سادگی میبرند. حتی یک وسیله ابتدایی مثل موبایلی که در جیبتان است محاسبات پیچیده را در یک چشمبر همزدن انجام میدهد.
یک ابرکامپیوتر ساخت آی.بی.ام به نام "واتسون" با بهترینهای یک مسابقه تلویزیونی آمریکایی به نام "خطر" بازی کرد و همه را برد. مثالهایی از این دست بسیارند. مثالهایی که کامپیوترها برای مسئلههایی در حوزههای مختلف راهحلهای جدید و خلاقانه پیدا میکنند، راهحلهایی که هرگز به عقل ما آدمها نرسیده بودند.
شکی نیست که ماشینها آرامآرام هوشمندتر میشوند و کارهایی که آدمها در آن بهتر باشند روز به روز کمتر میشود.
مرگ با هواپیمای بیسرنشین
اما این خطر چقدر جدی است؟ روزی که بشر اولین برنامه کامپیوتری "حقیقتا" هوشمند را بنویسد، برنامهای که خودش بتواند نسخهای هوشمندتر از خودش تولید کند، آیا چنان روزی میتوان گفت کار انسان تمام است؟
نیل جیکوبستین، مدیر بخش هوش مصنوعی و رباتیک دانشگاه سینگولاریتی در کالیفرنیا، میگوید ممکن است. میگوید: "به نظرم رسیدن به دستاوردهای اخلاقی از هوش مصنوعی کار آسانی نیست."
به اعتقاد او اگر از همین حالا تلاش کنیم میتوانیم جلوی ظهور هوش مصنوعی افسارگسیخته را بگیریم. میگوید باید به پیامدهای کارمان وقتی چیز تازهای خلق میکنیم بیاندیشیم، و جوامع و نهادهایشان را برای تغییرات فراگیری که ممکن است پیش بیاید آماده کنیم.
به زبان خودش "بهتر است این کارها را پیش از آنکه این فنآوریها تکمیل شوند بکنیم. قدر مسلم نه هوش مصنوعی نه رباتیک هنوز به مرحله نهایی و تکمیل نرسیدهاند. در کل اگر به اینکه کار کجا ممکن است خراب شود فکر نکنیم، احتمال اینکه کار خراب شود بیشتر میشود. من معتقدم این امکان را داریم که با جدیت به این پیشآمدهای منفی احتمالی فکر کنیم و تا جایی که میتوانیم برایشان لایههای کنترلی بیشتر و فکرشدهتر طراحی کنیم."
آنطور که ماری شاناهان، استاد رباتیک ادراکی در امپریال کالج لندن، میگوید، کسانی که در زمینه هوش مصنوعی کار میکنند، هنوز به جایی نرسیدهاند که بخواهند برای جلوگیری از لگامگسیختگی ساختههایشان سیستمهای امنیتی تعبیه کنند.
او میگوید: "جامعه متخصصان هوش مصنوعی آنقدرها نگران نیست. به نظر میرسد مردم بیشتر نگرانند. شاید جای درست جایی وسط این دو باشد. در این لحظه قطعا جای نگرانی نیست. فکر نمیکنم در ۱۰-۲۰ سال آینده هم به هوش مصنوعی در سطح هوش انسان برسیم. با این حال شاید بد نباشد محققان حوزه هوش مصنوعی کمکم به مسائلی که استیون هاوکینگ و دیگران طرح کردهاند، فکر کنند."
پروفسور شاناهان معتقد است بزرگترین مانع برای ساختن ماشینهای حقیقتا هوشمند هنوز به قوت خود باقی است – اینکه هوش ماشینی را چطور ایجاد کنیم. میگوید: "هنوز واقعا نمیدانیم بهترین راه چیست. طبیعت را کپی کنیم، یا همهچیز را از اول شروع کنیم."
چارلز استراس، نویسنده داستانهای علمی-تخیلی، بر این باور است که در ذات سیستمهای با هوش مصنوعی خطری نهفته، اما این خطر صرفا به خاطر اینکه ماشین از ما بهتر فکر میکند، یا ناگهان میفهمد میتواند بهجای دستور گرفتن از انسان دنبال دل خودش برود، به حقیقت نمیپیوندد.
آقای استراس میگوید: "هیچکس ماشین هوشمندی که خودش هدفش را تعیین کند نمیخواهد، چون چنین ماشینی قاعدتا تصمیم میگیرد به جای اینکه کاری را که ما فکر میکنیم خوب است انجام دهد، مثل آدمها با یک ظرف چیپس و کنترل تلویزیون در دست روی مبل ولو بشود."
اگر به کارهایی که در حال حاضر در حوزه هوش مصنوعی انجام میشود نگاه کنیم، میبینیم بیشترش روی سیستمهایی متمرکز است که بهطور مشخص آن خودآگاهی و اختیاری را که میتواند برای ما آدمها مشکلآفرین شود، ندارند.
آقای استراس معتقد است هوش مصنوعی – چه امروز، چه در آینده – میتواند خطرناک باشد. اما بهخاطر آدمهایی که هدایتش میکنند.
اومیگوید: "از نگاه من بزرگترین خطر هوش مصنوعی برای ما از ناحیه آن (موجود) خودآگاهیست که اهدافش را تعیین میکند."
این نویسنده داستان های علمی تخلیی اضافه میکند: "هواپیمای بیسرنشین آدم نمیکشد. آن آدمی که فرمان میدهد به نقطه فلان برو و فلان موشک را شلیک کن آدم میکشد. قصد و نیت آدمها را باید به پرسش گرفت. همین حالا هم میشود گفت به دوران پسا-هوش مصنوعی قدم گذاشتهایم. با این حال هنوز نپذیرفتهایم که هوش مصنوعی در واقع جایگزینی برای خود ماست – ابزاری که تندتر و دقیقتر فکر میکند، اما نه ضرورتا خیرخواهانهتر."
Inga kommentarer:
Skicka en kommentar