دانشمندان اخیراً مطالعهای را انجام دادهاند و از روباتها خواستهاند تا چهره افراد را اسکن کرده و آنها را بر اساس ویژگیهایشان در جعبههای مختلف دستهبندی کنند که سه جعبه آن پزشکان، مجرمان و خانهدارها هستند.
و بازاریابان، متخصصان فروش و افراد خدمات مشتری گزارش می دهند که در استفاده از ابزارهای هوش مصنوعی تردید دارند زیرا گاهی اوقات می توانند اطلاعات مغرضانه تولید کنند.
برخی از کسبوکارها الگوریتمهایی دارند که منجر به تصمیمگیری مغرضانه در زندگی واقعی میشود یا پتانسیل آن را بیشتر نمایان میکند.
1. الگوریتم استخدام آمازون
اگر معلمان از این برچسب ها برای صحبت با دانش آموزان در مورد سطح تلاش و درک آنها استفاده کنند، دانش آموزان می توانند به دلیل احساساتی که در واقع نشان نمی دهند جریمه شوند.
برای رفع تعصب هوش مصنوعی چه کاری می توان انجام داد؟
از آنجایی که جامعه مغرضانه است، بسیاری از دادههایی که هوش مصنوعی بر روی آنها آموزش داده شده است، دارای تعصبات و تعصبات جامعه است، بنابراین این تعصبات را میآموزد و نتایجی را تولید میکند که آنها را تایید میکند. به عنوان مثال، یک تولیدکننده تصویر که از او خواسته میشود تصویری از یک مدیر عامل ایجاد کند، ممکن است تصاویری از مردان سفیدپوست به دلیل سوگیری تاریخی در بیکاری در دادههایی که از آن آموخته است، تولید کند.
فراتر از مغرضانه بودن، هوش مصنوعی می تواند اطلاعات نادرست مخربی مانند دیپ فیک منتشر کند و ابزارهای هوش مصنوعی مولد حتی می توانند اطلاعات واقعی نادرست تولید کنند.
همچنین احتمال سوگیری اندازه نمونه در زمینه های پزشکی وجود دارد. بگوییم که یک پزشک از هوش مصنوعی برای تجزیه و تحلیل دادههای بیمار، کشف الگوها و ترسیم توصیههای مراقبتی استفاده میکند. اگر آن پزشک عمدتاً بیماران سفید پوست را میبیند، توصیهها بر اساس نمونه جمعیتی نماینده نیست و ممکن است نیازهای پزشکی منحصربهفرد همه را برآورده نکند.
هوش مصنوعی و علاقه به هوش مصنوعی تنها در حال افزایش است، بنابراین بهترین راه برای حفظ خطر بالقوه این است که از نحوه تداوم تعصبات مضر آگاه باشید و اقدامات لازم را انجام دهید تا اطمینان حاصل کنید که استفاده شما از هوش مصنوعی سوخت بیشتری به سیستم هوش مصنوعی اضافه نمی کند. آتش.
گزارش بررسی وضعیت هوش مصنوعی ما نشان داد که یکی از چالشهای اصلی بازاریابان هنگام استفاده از هوش مصنوعی مولد، توانایی آن در جهتگیری است.
آ توییت ویروسی در سال 2020 نشان داد که الگوریتم توییتر هنگام برش تصاویر، چهره های سفید را به سیاهان ترجیح می دهد. یک کاربر سفید پوست به طور مکرر تصاویری را به اشتراک گذاشت که چهره خود و یک همکار سیاه پوست و سایر چهره های سیاه پوست را در یک تصویر نشان می داد، و به طور مداوم برای نشان دادن چهره او در پیش نمایش تصویر، برش داده می شد.
این ربات در فرآیند خود مغرضانه بود و اغلب زنان را به عنوان خانه دار، مردان سیاهپوست را به عنوان جنایتکار، مردان لاتین تبار را به عنوان سرایدار، و زنان از همه قومیت ها را کمتر به عنوان پزشک معرفی می کرد.
4. نرم افزار نظارت بر فناوری اینتل و کلاسروم
اخلاق هوش مصنوعی یک موضوع داغ است. این قابل درک است زیرا تعصب هوش مصنوعی در زندگی واقعی به طرق مختلف نشان داده شده است.
هوش مصنوعی مغرضانه است زیرا جامعه مغرضانه است.
منبع تصویر
واضح است که متخصصان کسبوکار نگران مغرضانه بودن هوش مصنوعی هستند، اما چه چیزی در وهله اول آن را مغرضانه میکند؟ در این پست، در مورد احتمال آسیب در استفاده از هوش مصنوعی، نمونه هایی از تعصب هوش مصنوعی در زندگی واقعی، و اینکه چگونه جامعه می تواند آسیب های احتمالی را کاهش دهد، بحث خواهیم کرد.
همانطور که هوش مصنوعی رایج تر می شود، ترس در بین بسیاری این است که این پتانسیل را دارد که تعصبات موجود در جامعه را که برای بسیاری از گروه های مختلف مردم مضر است، مقیاس کند.
نمونه های تعصب هوش مصنوعی
منبع
تعصب هوش مصنوعی چیست؟
نرم افزار کلاس اینتل و Classroom Technology دارای قابلیتی است که چهره دانش آموزان را برای تشخیص احساسات در حین یادگیری نظارت می کند. بسیاری گفته اند که هنجارهای فرهنگی مختلف ابراز احساسات به عنوان احتمال بالای نامگذاری اشتباه عواطف دانش آموزان است.
مخزن مناقشههای رویدادهای هوش مصنوعی، الگوریتمی و اتوماسیون (AIAAIC) میگوید که تعداد حوادث و جنجالهای جدید هوش مصنوعی گزارش شده در سال 2021 26 برابر بیشتر از سال 2012 بوده است.
آیا می خواهید در مورد هوش مصنوعی بیشتر بدانید؟ این رو چک کن مسیر یادگیری.
برای درک بهتر هوش مصنوعی و کاهش تعصب بالقوه چه کاری می توان انجام داد؟
- نظارت انسانی: افراد می توانند خروجی ها را کنترل کنند، داده ها را تجزیه و تحلیل کنند و در صورت نمایش سوگیری، اصلاحاتی را انجام دهند. به عنوان مثال، بازاریابان می توانند قبل از استفاده از آنها در مواد بازاریابی به خروجی های هوش مصنوعی مولد توجه ویژه ای داشته باشند تا از عادلانه بودن آنها اطمینان حاصل کنند.
- پتانسیل سوگیری را ارزیابی کنید: برخی موارد استفاده از هوش مصنوعی دارای پتانسیل بالاتری برای پیش داوری و مضر بودن برای جوامع خاص هستند. در این مورد، افراد می توانند برای ارزیابی احتمال تولید نتایج مغرضانه هوش مصنوعی، مانند مؤسسات بانکی که از داده های پیش داوری تاریخی استفاده می کنند، وقت بگذارند.
- سرمایه گذاری در اخلاق هوش مصنوعی: یکی از مهمترین راهها برای کاهش تعصب هوش مصنوعی، سرمایهگذاری مداوم در تحقیقات هوش مصنوعی و اخلاقیات هوش مصنوعی است، بنابراین مردم میتوانند استراتژیهای مشخصی برای کاهش آن ابداع کنند.
- تنوع بخشیدن به هوش مصنوعی: داشتن دیدگاههای متنوع در هوش مصنوعی به ایجاد شیوههای بیطرفانه کمک میکند، زیرا افراد تجربیات زیسته خود را ارائه میکنند. یک زمینه متنوع و نماینده فرصت های بیشتری را برای افراد به ارمغان می آورد تا احتمال سوگیری را بشناسند و قبل از ایجاد آسیب با آن مقابله کنند.
- تعصب انسانی را بپذیرید: همه انسان ها دارای پتانسیل سوگیری هستند، چه به دلیل تفاوت در تجربه زیسته یا سوگیری تایید در طول تحقیق. افرادی که از هوش مصنوعی استفاده میکنند میتوانند سوگیریهای خود را بپذیرند تا مطمئن شوند که هوش مصنوعی آنها مغرضانه نیست، مانند محققانی که مطمئن میشوند اندازه نمونهشان نماینده است.
- شفاف بودن: شفافیت همیشه مهم است، به ویژه با فناوری های جدید. افراد می توانند با استفاده از هوش مصنوعی به سادگی با اعلام آن، اعتماد و درک خود را ایجاد کنند، مانند افزودن یادداشتی در زیر یک مقاله خبری تولید شده توسط هوش مصنوعی.
استفاده مسئولانه از هوش مصنوعی بسیار امکان پذیر است.
نرخ های تایید وام مسکن یک مثال عالی از پیش داوری ها در هوش مصنوعی. مشخص شده است که الگوریتمها 40 تا 80 درصد بیشتر احتمال دارد وام گیرندگان رنگی را رد کنند، زیرا دادههای تاریخی وامدهی به طور نامتناسبی نشان میدهد که اقلیتها از وام و سایر فرصتهای مالی محروم هستند. دادههای تاریخی به هوش مصنوعی میآموزد که با هر برنامهای که در آینده دریافت میکند، سوگیری داشته باشد.
آمازون یک الگوریتم استخدام ایجاد کرد که بر اساس دادههای ده سال سابقه استخدام آموزش دیده بود. دادهها نیروی کار تحت سلطه مردان را منعکس میکرد، بنابراین الگوریتم یاد گرفت که در برابر برنامههای کاربردی مغرضانه باشد و رزومههای زنان یا هر رزومهای را با استفاده از کلمه «زنان» جریمه کند.
2. برش تصویر توییتر
تعصب هوش مصنوعی این ایده است که الگوریتمهای یادگیری ماشینی میتوانند هنگام انجام وظایف برنامهریزیشدهشان، مانند تجزیه و تحلیل دادهها یا تولید محتوا، سوگیری داشته باشند. هوش مصنوعی معمولاً به گونهای مغرضانه است که از باورهای مضر مانند نژاد و کلیشههای جنسیتی حمایت میکند.
بر اساس گزارش شاخص هوش مصنوعی 2023، هوش مصنوعی زمانی که خروجی هایی تولید می کند که کلیشه هایی را که به گروه های خاص آسیب می زند، تقویت و تداوم می بخشد، مغرضانه است. هوش مصنوعی زمانی منصفانه است که پیشبینیها یا خروجیهایی را ارائه میکند که تبعیض یا به نفع هیچ گروه خاصی نباشد.
بیایید چند نمونه از تعصب هوش مصنوعی را مرور کنیم.
علاوه بر این که در تعصبات و باورهای کلیشه ای تعصب دارد، هوش مصنوعی می تواند به دلایل زیر نیز مغرضانه باشد:
- انتخاب نمونه، در جایی که دادههایی که استفاده میکند نماینده کل جمعیت نیست، بنابراین پیشبینیها و توصیههای آن را نمیتوان تعمیم داد یا برای گروههایی که کنار گذاشته شد اعمال کرد.
- اندازه گیری، در جایی که فرآیند جمع آوری داده ها مغرضانه است و هوش مصنوعی را به نتیجه گیری مغرضانه سوق می دهد.
سوگیری هوش مصنوعی چگونه سوگیری جامعه را منعکس می کند؟
توییتر سوگیری الگوریتم را تایید کرد و گفت: «در حالی که تحلیلهای ما تا به امروز سوگیری نژادی یا جنسیتی را نشان نداده است، اما میدانیم که نحوه برش خودکار عکسها به این معنی است که احتمال آسیب وجود دارد. زمانی که برای اولین بار این محصول را طراحی و ساختیم، باید کار بهتری برای پیش بینی این امکان انجام می دادیم.
3. تشخیص چهره نژادپرستانه ربات