دانشمندان از کمتوجهی به ابعاد مختلف توسعهٔ هوش مصنوعی ابراز نگرانی میکنند
واهمه از «خودآگاهی» ماشینها
محققان خواستار بودجه بیشتر برای مطالعهٔ مرز بین سیستمهای خودآگاه و ناخودآگاه هستند
۶ دی ۱۴۰۲، ۲۲:۰۸
|پیام ما| آیا سیستمهای هوش مصنوعی (AI) میتوانند خودآگاه شوند؟ سه پژوهشگران خودآگاهی میگویند که در ال حاضر، هیچچیز از این موضوع نمیدانیم و بهدلیل انجام نشدن مطالعات و تحقیقاتی در اینباره، نگرانند. سه نفر از رهبران انجمن علوم آگاهی ریاضی (AMCS) در اظهارنظری خطاب به سازمان ملل متحد خواستار آن شدند که تحقیقات دربارهٔ هوش مصنوعی و خودآگاهی آن مورد حمایت بیشتری قرار گیرد. آنها میگویند که انجام تحقیقات علمی متمرکز بر شناختن مرز بین سیستمهای هوش مصنوعی خودآگاه و ناخودآگاه ضروری است. آنها بر این باورند که این مسایل اخلاقی، قانونی و ایمنی هستند که درک خودآگاهی هوش مصنوعی را بسیار مهم میکنند. بهعنوان مثال، باید بهدرستی این موضوع تشریح شود که اگر هوش مصنوعی شروع به توسعهٔ خودآگاهیاش کرد، آیا بهتر است به مردم این اجازه را بدهیم که بعد از استفاده از هوش مصنوعی، آن را از کار بیاندازند؟
«جاناتان میسون» (Jonathan Mason)، ریاضیدان مستقر در آکسفورد انگلستان که یکی از نویسندگان این نظرات است میگوید که معمولاً چنین نگرانیهایی از مباحثات رسمی دربارهٔ ایمنی هوش مصنوعی مطرح نمیشوند. مثلا در اجلاس ایمنی هوش مصنوعی که در انگلستان برگزار شد، دربارهٔ این موضوع صحبتی به میان نیامند. او همچنین یادآوری میکند که در فرمان اجرایی «جو بایدن»، رئیس جمهوری ایالات متحده که با هدف توسعهٔ مسئولانهٔ هوش مصنوعی صادر شد، مسائل مربوط به سیستمهای خودآگاه هوش مصنوعی درنظر گرفته نشد.
میسون میگوید: «با وجود همهٔ اتفاقاتی که در هوش مصنوعی درحال وقوع است، اما همیشه مسایلی جانبی دربارهٔ علم وجود دارد که ناگزیر باید به آنها توجه کرد، خودآگاهی یکی از آنهاست.»
دو نویسندهٔ دیگر این اظهارنظر، «لنور بلوم» (Lenore Blum)، نظریهپرداز حوزهٔ کامپیوتر در دانشگاه «کارنگی ملون» پنسیلوانیا و «یوهانس کلینر» (Johannes Kleiner)، ریاضیدان از دانشگاه لودیک ماکسیمیلیان آلمان بودند.
این یک داستان علمی-تخیلی نیست
اینکه آیا سیستمهای هوش مصنوعی خودآگاه وجود دارند یا اینکه آیا سیستمهای هوش مصنوعی میتوانند به خودآگاهی برسند، هنوز برای علم ناشناخته است. میسون میگوید: «حتی فهمیدن اینکه یکی از این سیستمها توانسته خودآگاهی را توسعه دهد، خودش یک چالش است. چون هنوز دانشمندان روشهای معتبر علمی برای ارزیابی خودآگاهی در ماشینها ایجاد نکرده اند.»
«رابرت لانگ» (Robert Long)، فیلسوفی است که در مرکز ایمنی هوش مصنوعی، یک سازمان تحقیقاتی غیرانتفاعی در سانفرانسیسکو امریکا فعالیت میکند. او میگوید: «با توجه به سرعت پیشرفت هوش مصنوعی، عدم اطمینان در مورد خودآگاهی هوش مصنوعی، فقط یکی از مسائل متعدد نگرانکننده دربارهٔ این فناوری است.»
چنین نگرانیهایی دیگر فقط سوژهٔ داستانهای علمی-تخیلی نیستند. شرکتهایی مانند «اوپن ایآی» (که «چت جیپیتی» را راهاندازی کرده است) با تمرکز بر آموزش یک سیستم یادگیری عمیق با هدف انجام طیف گستردهای از وظایف فکری شبیه به آنچه که انسان میتواند انجام دهد، در حال توسعهٔ هوش مصنوعی عمومی هستند. برخی محققان پیشبینی میکنند که رسیدن به هوش مصنوعی به خودآگاهی، در پنج تا ۲۰ سال آینده محقق میشود. میسون میگوید که با این وجود، از تحقیقات برای خودآگاهی سیستمها حمایت مالی بسیار کمی انجام میشود: «تا آنجا که میدانم، در سال ۲۰۲۳ حتی یک پیشنهاد کمکهزینه برای مطالعات این موضوع وجود ندارد.»
شکاف اطلاعاتی که نویسندگان این اظهارنظر مشخص کردهاند، به دست کمیتهٔ عالی مشورتی سازمان ملل متحد در زمینهٔ هوش مصنوعی رسیده است. این کمیتهٔ عالی، اکتبر امسال تشکیل شد و قرار است در میانهٔ سال ۲۰۲۴ گزارشی را در مورد چگونگی مدیریت فناوری هوش مصنوعی در جهان منتشر کند. این اظهارنظر بهصورت عمومی منتشر نشده است اما کمیتهٔ عالی به انجمن علوم آگاهی ریاضی این اطمینان را داده است که اظهارنظر آنها، بخشی از «مفاد اساسی» گزارش کمیته خواهد بود، یعنی اسنادی که قرار است توصیههایی دربارهٔ نظارت جهانی بر سیستمهای هوش مصنوعی ارائه دهند.
محققان انجمن علوم آگاهی میگویند که برای ارزیابی پیامدهای خودآگاهی هوش مصنوعی برای جامعه، این ضروری است که درک کنیم چهچیزی میتواند هوش مصنوعی را خودآگاه کند. انسان باید ارزیابی کند که آیا چنین سیستمهایی برپایهٔ ارزشها و منافع انسانی کار میکنند. در غیر اینصورت، آنها میتوانند برای مردم ایجاد خطر کنند.
نیازهای ماشین
از طرف دیگر محققان میگویند که انسان باید نیازهای احتمالی هوش مصنوعی خودآگاه را نیز درنظر بگیرد. مثلا این را بدانند که آیا این سیستمها میتوانند رنج ببرند؟ لانگ میگوید: «اگر نتوانیم خودآگاه شدن یک سیستم هوش مصنوعی را تشخیص دهیم، ممکن است به یک موجود خودآگاه، بدون اینکه بدانیم تحمیل درد کنیم. ما در گسترش توجه اخلاقی به موجوداتی که شبیه ما نیستند، واقعاً سابقهٔ خوبی نداریم.» به گفتهٔ او، خطا در نسبتدادن خودآگاهی نیز مشکلساز خواهد بود، چون انسان نباید منابع محدود خود را برای محافظت از سیستمهایی که نیازی به حفاظت ندارند صرف کند.
برخی از سوالات مطح شده در اظهارنظر رهبران انجمن علوم آگاهی، برای برجستهکردن اهمیت قانونی مسئلهٔ خودآگاهی است. بهعنوان مثال «آیا یک سیسم هوش مصنوعی خودآگاه باید برای عمل عمدی اشتباه خود پاسخگو باشد؟» یا «آیا باید حقوقی برابر با مردم داشته باشد؟» پاسخ به این سوالها ممکن است نیازمند تغییر در قوانین و مقررات موجود باشد.
از سوی دیگر برای آموزش افراد غیرمتخصص، به دانشمندان حوزهٔ هوش مصنوعی احتیاج داریم. همچنانکه شرکتها، سیستمهای هوش مصنوعی را با پیچیدگی و توانمندیهای بیشتر طراحی میکنند و توسعه میدهند، طبیعی است که مردم بخواهند بدانند که آیا این سیستمها دارای خودآگاهی هستند یا خیر. در اینجا دانشمندان این حوزه برای ارائه راهنمایی به مردم، باید به اندازهٔ کافی در این مورد بدانند.
علاوه بر سه نفر رهبر انجمن علوم آگاهی، سایر پژوهشگران این حوزه نیز همین نگرانیها را بیان میکنند. «سوزان اشنایدر» (Susan Schneider)، فیلسوف و مدیر مرکز «ذهن آینده» در دانشگاه فلوریدا آتلانتیک میگوید که چتباتهایی مانند چتجیپیتی در رفتارهای خود بسیار شبیه به انسان بهنظر میرسند و طبیعتاً مردم در برخورد با آنها بهاشتباه میافتند. بدون تجزیه و تحلیل دقیق توسط دانشمندان، ممکن است برخی افراد به این نتیجه برسند که چنین سیستمهایی خودآگاه هستند در حالی که سایر اعضای جامعه نگرانیهای مربوط به خودآگاهی هوش مصنوعی را رد کنند یا به دیدهٔ تمسخر به آنها نگاه کنند.
برای کاهش خطرات احتمالی، رهبران انجمن علوم آگاهی از دولتها و بخش خصوصی میخواهند تحقیقات بیشتری دربارهٔ خودآگاهی هوش مصنوعی انجام دهند. آنها میگویند برای پیشبرد این تحقیقات، بودجهٔ زیادی لازم نیست و تا به امروز، با وجود حمایتهای محدود این کار در حال انجام است. مثلا لانگ و ۱۸ پژوهشگر دیگر چکلیستی از معیارهای ارزیابی سیستمها را توسعه دادهاند که برای دریافتن این نکته که کدام سیستم شانس بالایی برای رسیدن به خودآگاهی دارد، بهکار میآید. میسون میگوید: «دتانسیل زیادی برای پیشرفت این مباحث وجود دارد.»
منبع:
*متن اصلی این گزارش با عنوان AI consciousness: scientists say we urgently need answers روز اول دیماه در «نیچر» منتشر شده است.
نظر کاربران
نظری برای این پست ثبت نشده است.
مطالب مرتبط
نشست «اینترنت» کارزار با حضور فعالان این حوزه و در غیبت مسئولان برگزار شد
محدودیتِ بـــدونِ شفافیـت
انقلاب خاموش در صنعت دارو
سلامت عمومی قربانی پنهان قطع اینترنت
دسترسی نابرابر به اینترنت در سایه «پرو» شدن اتصالها
زندگی پشت دیـــــــوار اختلال
بیانیه انجمن تجارت الکترونیک در مخالفت با ادامه قطعی اینترنت
رمزگشایی از «کتابخانه پنهان» در استخوانهای کهن
میـــــــــراث بیولوژیک
قطع اینترنت؛ از خسارت به کسبوکارها تا تخلف اپراتورها در دریافت وجوه اضافی
علم در برابر ادعا: چرا رادارهای نظامی عامل کاهش بارش در ایران نیستند؟
سیاستگذاری فناوری در پیچ تاریخی
شورش محلی علیه غولهای هوش مصنوعی
دخل و تصرف انسان در آب و هوا
وب گردی
- «سهم ما از قدردانی»؛ حمایت ویژه هتلهای دُنسه از قهرمانان امداد
- درخواست ایجاد مسیر دوچرخهسواری ۱۰۰ کیلومتری در قم
- چند روز بعد از سمپاشی ساس از بین میرود؟ (راهنمای کامل سمپاشی ساس + قوی ترین سم ساس)
- باغ پرندگان تهران کجاست؟ معرفی، ساعت کاری و آدرس
- مقایسه قیمت ورق شیروانی، سیاه، استیل و گالوانیزه در یک نگاه
- درخواست برقراری دورکاری و تعطیلی پنجشنبه برای کادر غیرعملیاتی (پشتیبانی) درمان سازمان تأمین اجتماعی
- طریقه ی ساخت دستگاه واکس زن برقی
- خرید لوازم یدکی لودر فابریک
- حضور فعال شرکت کرچنر سولار گروپ ایرانیان در نمایشگاه بینالمللی انرژیهای تجدیدپذیر
- جدیدترین تغییرات قیمت ارزهای دیجیتال و تحلیل رفتار بازار جهانی بیشتر
بیشترین نظر کاربران
پربازدیدها
1
رقص سوگوارانه؛ کنشی مقاومتی
2
رقص عزا
3
مبارزه با جستوجوی گنج
4
هوای آلوده با موتورهای منسوخشده و آلاینده خودروهای داخلی
5
گنجِ گمشده زیر چرخ لودرها




دیدگاهتان را بنویسید