در نشست درآمدی بر نسبت اخلاق هوش مصنوعی مطرح شد؛

توسعه اخلاقی هوش مصنوعی در گرو به کارگیری روحیه مردم سالاری است

توسعه اخلاقی هوش مصنوعی در گرو به کارگیری روحیه مردم سالاری است

به گزارش آزینیک، دانش آموخته دکتری فلسفه دانشگاه بوهمیای جنوبی اظهار داشت: اگر تکنوکراسی و سپردن امور منحصراً به متخصصان وجود داشته باشد، همه چالش های عدم توسعه اخلاقی پایاپای توسعه هوش مصنوعی باقی خواهد ماند.



به گزارش آزینیک به نقل از مهر، نشست روایتهای فرامرزی با عنوان «درآمدی بر نسبت اخلاق هوش مصنوعی و سیاستگذاری عمومی: مطالعهٔ موردی شفافیت و حریم خصوصی» با عرضه دکتر احسان ارضروم چیلر، دانش آموخته دکتری فلسفه دانشگاه بوهمیای جنوبی و پژوهشگر اخلاق تکنولوژی به شکل برخط در اسکای روم مرکز رشد و نوآوری پژوهشگاه فرهنگ و اندیشه اسلامی و با همکاری سازمان توسعه همکاریهای علمی و فناورانه بین المللی ریاست جمهوری برگزار گردید.
ارضروم چیلر از هوش مصنوعی به مثابه انقلاب صنعتی چهارم یاد کرد و افزود اصولی مانند شفافیت، عدالت و انصاف، اعتماد و کرامت انسانی اصولی اخلاقی اند که در رویارویی با اجزا و لوازم پدیده های مبتنی بر هوش مصنوعی باید به آن دقت نماییم.
این پژوهشگر اخلاق تکنولوژی با ورود به بحث حریم خصوصی و تلازم آن با مفهوم قدرت از سه درک راجع به قدرت صحبت کرد که عبارت از تحمیل فشار به شکل دفعی و موردی، اعمال زور به شکل سازمانی و تحمیل هنجار به مثابه خلق سوژه و نیروی پیش برنده هستند. او با گرته برداری از استعاره زندان طراحی شده توسط جرمی بنتام یعنی پناپتیکن (panoptican) اظهار داشت: اپلیکیشن ها و پلت فرم های مبتنی بر هوش مصنوعی می توانند به همین اندازه تسلط و کنترل بر شهروندان را اعمال کنند. در قدرت به شکل سازمانی و نیروی پیش برنده تبعات ناهنجارانه زیادی بر هوش مصنوعی مترتب می شود. برای مثال از منظر پلت فرم هایی که دیتافیکیشن یا داده وارسازی شهروندان را بدون رضایت آنان و از طرق غیرمستقیم و باواسطه انجام می دهند شهروندان را شیء انگاری می کنند و به همین خاطر مجوز نقض حریم خصوصی آنها را می دهند.
ارضروم‎ چیلر اظهار داشت: هوش مصنوعی عدم توازن به بهانه نقض حریم خصوصی را در تمام ابعاد اعمال می کند. حتی حکمرانی داده محور با کمک هوش مصنوعی گوگل در جست وجوی مقالات و ژورنال ها برنامه ریزی می کند که چه مقاله ای را نشان دهد که به پژوهشگر حس دستیابی به دانش را القا کند. این مورد در ابعاد ایدئولوژیک هم دیده می شود؛ مثلا با داده‎محوری و داده وارسازی هوش مصنوعی یک گروه اقلیت می تواند اکثریت مخالف یا متفاوت را به سویه های فکری و فرهنگی مورد نظر خود هدایت کند و نمونه های موردنظر آنان را محو کند. هوش مصنوعی در اینستاگرام و پینترست و توئیتر می تواند راحتتر از گذشته الگوهای زندگی خصوصی و تجربه های زیسته را استخراج کند و می تواند داده های در تملک شهروندان را به نهادهای سیاسی بدهد تا آنها را در جهت تک صدای مطلوب خود تجمیع کنند.
این پژوهشگر با تبیین شیءانگاری انسان در رویارویی با هوش مصنوعی به نمونه ساعتهای هوشمند با هوش مصنوعی اشاره نمود و اظهار داشت: هرچند این ساعت ها فواید و منافع زیادی برای سلامتی جسمی را تأمین می کنند اما در زمانیکه به علت مشکلات اقتصادی اوضاع و احوال روحی مناسبی وجود ندارد، چاره ساعت هوشمند در رفتن به روانشناس و روانپزشک است. در اینجا یک سوژه سیاسی تبدیل به سوژه ای غیرسیاسی می شود.
این نمونه ها با قدرت در معنای سوم که آشکارگی کمتری از معنای اول و دوم دارد خویش را بیشتر نشان داده است. خیلی واضح است اگر کنترل های بصری هوش مصنوعی ما را رصد کنند ناراحت می شویم، ولی به معنای سوم آنقدر پنهان و فردی است که باید با گفتگوی عمومی و انتقادی در بستر آزاد و شفاف به این بحث بپردازیم که چه تبعات اخلاقی مترتب بر سازه های هوش مصنوعی می شود.
ارضروم چیلر نمونه دیگری از ملاحظات اخلاقی ناظر به پلت فرم های هوش مصنوعی را به تحلیل قدرت به مثابه نیروی سازنده سوژه بیان نمود. او به سراغ نمونه اتاق پژواک رفت که افراد در شبکه ارتباطی محدود به خود هستند و هوش مصنوعی فقط بر همان اساس به آنها پیشنهاد استفاده و مصرف می دهد که سبب ایجاد اتاق پژواک و دور شدن از نگاه انتقادی به مسائل می شود.
بخش آخر نشست به این اختصاص پیدا کرد که در این اوضاع و احوال چه باید کرد؟ ایده ها و سفارش هایی برای طراحی اپلیکیشن هوشمند با هوش مصنوعی هست که سویه گیری کمتری داشته باشند مثلا طراحان از گونه های مختلف جغرافیای و جنسیتی و دینی و نژادی باشند.
به باور این پژوهشگر اخلاق تکنولوژی اگر تکنوکراسی و سپردن امور منحصراً به متخصصان وجود داشته باشد، همه چالش های عدم توسعه اخلاقی پایاپای توسعه هوش مصنوعی باقی خواهد ماند ولی باید از ابتدا روحیه مردم سالاری و مشارکت سیاسی و حقوقی و فرهنگی و اقتصادی و همه‌جانبه و پایدار شهروندان را انتظار داشته باشیم که اصول اخلاقی بر هوش مصنوعی مستقر و مستولی شود.

1403/07/26
12:25:41
0.0 / 5
195
تگهای خبر: اپل , اپلیكیشن , اینستاگرام , پزشك
این مطلب آزینیک را می پسندید؟
(0)
(0)

تازه ترین مطالب مرتبط آزینیک
نظرات خوانندگان آزینیک در مورد این مطلب
لطفا شما هم نظر دهید
= ۳ بعلاوه ۳
آزینیک