مطالب مرتبط با کلیدواژه

عدالت الگوریتمی


۱.

اخلاق هوش مصنوعی: چهارچوبی مبتنی بر اصول ارتباطی انسان با خدا، خود، دیگران و محیط(مقاله علمی وزارت علوم)

کلیدواژه‌ها: اخلاق فناوری اخلاق هوش مصنوعی عدالت الگوریتمی مسئولیت پذیری دیجیتال حریم خصوصی

حوزه‌های تخصصی:
تعداد بازدید : ۲۴۹ تعداد دانلود : ۱۱۸
این پژوهش به بررسی چارچوب اخلاقی هوش مصنوعی مبتنی بر اصول اسلامی در چهار حوزه ارتباط انسان با خدا، خود، دیگران و محیط زیست می پردازد. با استفاده از روش کیفی-تحلیلی و استناد به منابع دینی (قرآن، احادیث) و مطالعات کتابخانه ای، اصول اخلاقی اسلام استخراج کرده و تطبیق آن ها با چالش های هوش مصنوعی تحلیل شده است. بررسی ها نشان می دهد در ارتباط با خدا اصولی مانند ادای امانت الهی و عدالت، الهام بخش طراحی سیستم های شفاف، عادلانه و مسئولیت پذیر است. در ارتباط انسان با خود مدیریتی قوای درونی (قدرت طلبی، کمال طلبی) و توجه به سلامت روانی-جسمانی کاربران در طراحی الگوریتم ها ضروری است. در ارتباط با دیگران رعایت انصاف، احترام به حریم خصوصی و اجتناب از تبعیض در سیستم ها مانند تشخیص چهره و استخدام هوشمند و در ارتباط با محیط زیست بهینه سازی مصرف انرژی، کاهش آلایندگی و حفاظت از حیات وحش با کمک هوش مصنوعی از مهم ترین موارد هستند؛ در نتیجه تلفیق اصول اسلامی با اخلاق هوش مصنوعی، نه تنها از بحران هایی مانند نقض حریم خصوصی و تبعیض الگوریتمی جلوگیری می کند، بلکه هوش مصنوعی را به ابزاری برای تحقق عدالت اجتماعی و پایداری زیست محیطی تبدیل می نماید.
۲.

شناسایی و تحلیل فراترکیب چالش های اخلاقی هوش مصنوعی در مدیریت منابع انسانی: ارائۀ چارچوب مفهومی(مقاله علمی وزارت علوم)

کلیدواژه‌ها: هوش مصنوعی مدیریت منابع انسانی چالش های اخلاقی فراترکیب عدالت الگوریتمی

حوزه‌های تخصصی:
تعداد بازدید : ۱۷۳ تعداد دانلود : ۸۸
زمینه و هدف: تحول دیجیتال و ظهور انقلاب صنعتی ۴.۰، محیط کسب وکار را دگرگون کرده است و هوش مصنوعی، در این تحول نقش مهمی ایفا می کند. با توجه به کاربرد فزاینده هوش مصنوعی در مدیریت منابع انسانی، این پژوهش با هدف شناسایی و تحلیل نظام مند چالش های اخلاقی کاربرد هوش مصنوعی در مدیریت منابع انسانی اجرا شده است. روش: این مطالعه از رویکرد فراترکیب استفاده کرده و با بررسی نظام مند مطالعات منتشر شده در بازه زمانی ۲۰۱۵ تا ۲۰۲۴ انجام شده است. طی فرایند پژوهش، ۱۰۷ مقاله اولیه استخراج و در چهار مرحله پالایش شد. در نهایت، ۲۷ مقاله با استفاده از برنامه مهارت های ارزیابی انتقادی با کسب امتیاز بالای ۳۵، برای تحلیل نهایی انتخاب شد. یافته ها: بر اساس نتایج پژوهش، سه مضمون اصلی چالش های اخلاقی شناسایی و طبقه بندی شد: ۱. چالش های ساختاری – عملیاتی کاربست هوش مصنوعی؛ ۲. چالش های عدالت محور و حقوق بنیادین؛ ۳. چالش های حکمرانی الگوریتمی در تصمیم گیری های منابع انسانی. مهم ترین چالش، سوگیری های سیستماتیک در الگوریتم های تصمیم گیری منابع انسانی با ۳۳ فراوانی بود. پس از آن، اثرهای اتوماسیون بر اشتغال و مسائل حریم خصوصی با ۲۲ فراوانی در رتبه های بعدی قرار گرفتند. نتیجه گیری: پژوهش حاضر با بازشناسی و طبقه بندی نظام مند چالش های اخلاقی کاربرد هوش مصنوعی در مدیریت منابع انسانی، نشان داد که این حوزه با چالش های اخلاقی پیچیده ای روبه روست که طیف گسترده ای از مسائل فنی تا اجتماعی را دربرمی گیرد. این بازشناسی می تواند زمینه ساز پژوهش های آتی در جهت ارائه چارچوب های مدیریتی برای مواجهه با این چالش ها باشد.
۳.

تاملی حقوقی بر تفسیرپذیری و توضیح پذیری هوش مصنوعی: از مفهوم شناسی تا چارچوب تنظیم گری(مقاله علمی وزارت علوم)

کلیدواژه‌ها: حاکمیت قانون دادرسی منصفانه شفافیت الگوریتمی عدالت الگوریتمی قانون هوش مصنوعی اتحادیه اروپا

حوزه‌های تخصصی:
تعداد بازدید : ۲۸ تعداد دانلود : ۲۱
تلاقی هوش مصنوعی با الزامات حقوقی مرتبط با اصول دادرسی منصفانه و ضرورت شفافیت در تصمیم گیری های حقوقی و قضایی، چالشی اساسی ایجاد کرده است. ماهیت «جعبه سیاهِ» سیستم های یادگیری عمیق با اصل «استدلال مستند» در تعارض قرار دارد و این مسئله ضرورت بازاندیشی در تبیین رابطه میان محدودیت های فنی و الزامات حقوقی را مطرح می کند. در این چارچوب، پژوهش حاضر با هدف امکان سنجی تحقق توضیح پذیری و تفسیرپذیری در سیستم های هوشمند به منظور تأمین الزامات حقوقی مربوط به دادرسی منصفانه با اتکا بر روش توصیفی-تحلیلی و رویکرد اسنادی انجام شده است. در این مسیر ابتدا مفاهیم و مرزهای توضیح پذیری و تفسیرپذیری بررسی و سپس رویکردهای تنظیم گری مانند مقررات عمومی حفاظت از داده و قانون هوش مصنوعی اتحادیه اروپا مورد واکاوی قرار گرفته است. همچنین محدودیت های فنی این فناوری و چالش های حقوقی ناشی از آن ها نیز تحلیل شده است تا میزان کارآمدی این فناوری در پاسخگویی به الزامات حقوقی سنجیده شود. در نهایت، یافته ها حاکی از آن است که تقلیل مسئله به دوگانه «شفافیت کامل» یا «جعبه سیاه مطلق» رویکردی ساده انگارانه است؛ راهکار مطلوب، طراحی نظام تنظیم گری مبتنی بر ارزیابی سطح خطر است، به گونه ای که امکان تحقق عدالت الگوریتمی در عصر هوش مصنوعی فراهم آید.