استانداردهای اخلاقی برای ربات‌ها در دوراهی امداد و نجات

تهران- ایرنا- محققان با مقایسه دیدگاه‌های افراد در مورد ربات‌ها و انسان‌ها در موقعیت‌های امدادگری دریافتند تصمیم‌های ربات‌ها بر اساس معیارهای اخلاقی سختگیرانه‌تری ارزیابی می‌شود.

به گزارش گروه علم و آموزش ایرنا از تارنمای تک اسپلور، گروه تحقیقاتی "اخلاقیات ماشین های هوشمند" به سرپرستی مایکل لاکاسو دیدگاه‌های اخلاقی افراد را در مورد موقعیت‌های نجات خیالی و امدادگر انسان یا ربات که به طور خاص برای این کار طراحی شده است، مورد بررسی قرار دادند. امدادگر باید تصمیم بگیرد که مثلاً یک قربانی بی گناه حادثه قایق را نجات دهد یا دو فردی که رفتار غیرمسئولانه آنها باعث حادثه شده است.

یوکا سوندوال نویسنده اصلی این مطالعه گفت: بحث نجات تعداد افراد بیشتر در مقابل اولویت دادن به افراد بی گناه است.

هدف این مطالعه جمع‌آوری داده‌ها در مورد عواملی است که افراد در ارزیابی‌های اخلاقی خود در مورد موقعیت‌های دشوار تصمیم‌گیری بر آن‌ها تأکید می‌کنند و اینکه آیا اگر تصمیم گیری به عهده یک ربات گذاشته شود، این تاکیدات تغییر می کند یا خیر. به عبارت دیگر، آیا از ربات های امدادگر انتظار می رود به اولویت های متفاوت با انسان ها پایبند باشند؟

استانداردهای اخلاقی برای ربات‌ها در دوراهی امداد و نجات

مهمترین یافته این تحقیق این بود که شرکت کنندگان در مطالعه و پاسخ دهندگان به یک نظرسنجی آنلاین (به زبان فنلاندی) بر بی گناهی بیشترِ افرادی که قرار بود نجات یابند، تاکید داشتند. بطور کلی از نظر مردم بهتر است یک فرد بی گناه نجات داده شود تا دو فردی که باعث حادثه شده اند، چه امدادگر انسان باشد یا ربات. پاسخ دهندگان می خواستند که امدادگر تنها در شرایطی که همه طرف های درگیر در بروز حادثه به یک اندازه مقصر هستند یا مقصر نیستند، تعداد افراد نجات یافته را به حداکثر برساند.

این مطالعه همچنین تاکید می کند که اگر امدادگر تصمیم می گرفت با نجات افراد عامل ایجاد حادثه، تعداد نجات‌یافتگان را به حداکثر برساند، تصمیم ربات‌ها بسیار بیشتر از امدادگران انسانی محکوم می شد.

استانداردهای اخلاقی برای ربات‌ها در دوراهی امداد و نجات

نگاه انتقادی‌تر به ربات‌ها

مایکل لاکاسو گفت: بر اساس نتایج این مطالعه به نظر می رسد تصمیم های ربات ها بر اساس معیارهای اخلاقی سختگیرانه تری ارزیابی می شود.

در حالی که ربات‌ها و انسان‌ها در معرض انتظارات اخلاقی مشابهی هستند، اما انتظار می‌رود ربات‌ها در برآورده کردن این انتظارات بهتر از انسان عمل کنند.

یک دلیل احتمالی این است که مردم امیدوارند تصمیم گیری خودکار، بسیار بیشتر از تصمیم گیری افراد "درست" باشد. اگر این اتفاق نیفتد، هدف اتوماسیون و خودکارسازی را زیر سوال می برد.

ساندوال افزود: شاید تصمیم های اخلاقی ضعیفی را که انسان ها گرفته اند، بتوان اتفاقات قابل درک دانست؛ در حالی که در مورد ربات‌ها این تصمیم ها نشانه خطا در برنامه‌نویسی قلمداد می شوند.

استانداردهای اخلاقی برای ربات‌ها در دوراهی امداد و نجات

بررسی نگرش‌ها نسبت به فناوری جدید

در سطح عملی، معیارهای اخلاقی سخت‌گیرانه‌تر می‌تواند به واکنش‌های منفی قابل‌ توجه در شرایط زندگی واقعی منجر شود؛ جایی که نتیجه تصمیم‌ گیری خودکار از دیدگاه شهروندان از نظر اخلاقی ضعیف است. انتظارات بالا ممکن است مانع گسترش تصمیم گیری خودکار شود.

این مطالعه بخشی از مطالعات حوزه روانشناسی اخلاقی و تعامل انسان و فناوری است و هدف آن گسترش درک ما از تفکر و نگرش اخلاقی به فناوری های جدید است.

ساندوال با تاکید بر اهمیت این مطالعه اظهار داشت: توسعه هوش مصنوعی و رباتیک در حال حاضر بحث روز است. امکان تصمیم گیری خودکار در بخش های مختلف جامعه در حال افزایش است و تلاش برای پیش بینی مشکلات مربوط به این حوزه مفید است.

نتایج این تحقیق در مجله اروپایی Social Psychology منتشر شده است.

نظر شما

شما در حال پاسخ به نظر «» هستید.
captcha