پژوهش جدید: الگوریتم‌های غیرقابل ردیابی، حقوق بشر را نقض می‌کنند

هوش مصنوعی، تهدیدی برای کرامت انسانی





هوش مصنوعی، تهدیدی برای کرامت انسانی

۳ مرداد ۱۴۰۴، ۲۱:۲۷

پژوهشی جدید نشان می‌دهد که هوش مصنوعی، با وجود تسهیل زندگی، کرامت انسانی را در مقیاس جهانی تهدید می‌کند و الگوریتم‌های غیرقابل ردیابی آن، حقوق بشر را نقض می‌کنند.

مطالعه‌ای به رهبری دانشگاه چارلز داروین استرالیا نشان داده است که هوش مصنوعی، در حالی که تعاملات ما را دگرگون کرده، ارزش‌های دموکراتیک را تضعیف و سوگیری‌های سیستماتیک را تشدید می‌کند. ماریا راندازو، پژوهشگر دانشکده حقوق این دانشگاه و نویسنده اصلی این مطالعه، معتقد است که سرعت تغییر چشم‌اندازهای حقوقی و اخلاقی غرب توسط این فناوری بی‌سابقه است.

 

به گفته راندازو، مقررات فعلی قادر به حفاظت از حقوق و آزادی‌های اساسی انسان مانند حریم خصوصی، منع تبعیض، استقلال کاربران و حقوق مالکیت فکری در مقابل هوش مصنوعی نیستند. دلیل اصلی این ناتوانی، غیرقابل ردیابی بودن بسیاری از مدل‌های الگوریتمی است که راندازو آن را “مشکل جعبه سیاه” می‌نامد. وی می‌گوید: “ردیابی تصمیمات گرفته‌شده توسط فرآیندهای یادگیری عمیق یا یادگیری ماشین، برای انسان‌ها ناممکن است.” این امر تشخیص تخلف مدل‌های هوش مصنوعی از حقوق انسان را دشوار و پیگیری حقوقی را عملاً ناممکن می‌سازد.

 

راندازو هشدار می‌دهد که این مشکل بدون تنظیم مقررات مناسب، بدتر خواهد شد و تأکید می‌کند که هوش مصنوعی مانند انسان نمی‌اندیشد. به گفته وی، “هوش مصنوعی یک دستاورد مهندسی است، نه رفتاری‌شناختی. نمی‌داند چه کاری و به چه دلیلی انجام می‌دهد؛ اصلاً مثل انسان‌ها فکر نمی‌کند، فقط الگوها را می‌شناسد، بدون تجسد، حافظه، همدلی یا خرد.”

 

در حال حاضر، سه قدرت برتر دیجیتال جهان (آمریکا، چین و اتحادیه اروپا) رویکردهای متفاوتی نسبت به هوش مصنوعی دارند: آمریکا بازارمحور، چین دولت‌محور و اتحادیه اروپا انسان‌محور. راندازو رویکرد اتحادیه اروپا را برای حفاظت از کرامت انسانی ترجیح می‌دهد، اما معتقد است بدون تعهد جهانی، این رویکرد نیز کافی نخواهد بود. وی هشدار می‌دهد که اگر توسعه هوش مصنوعی با ویژگی‌های انسانی مانند توانایی انتخاب، احساس، استدلال همراه با مراقبت، همدلی و دلسوزی همراه نشود، انسانیت به داده صرف تقلیل می‌یابد و انسان، وسیله‌ای برای رسیدن به هدف خواهد شد.

منبع : وبگاه فیز

به اشتراک بگذارید:





نظر کاربران

نظری برای این پست ثبت نشده است.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *