تعصب هوش مصنوعی چیست؟ [+ Data]

دانشمندان اخیراً مطالعه‌ای را انجام داده‌اند و از روبات‌ها خواسته‌اند تا چهره افراد را اسکن کرده و آن‌ها را بر اساس ویژگی‌هایشان در جعبه‌های مختلف دسته‌بندی کنند که سه جعبه آن پزشکان، مجرمان و خانه‌دارها هستند.

و بازاریابان، متخصصان فروش و افراد خدمات مشتری گزارش می دهند که در استفاده از ابزارهای هوش مصنوعی تردید دارند زیرا گاهی اوقات می توانند اطلاعات مغرضانه تولید کنند.

برخی از کسب‌وکارها الگوریتم‌هایی دارند که منجر به تصمیم‌گیری مغرضانه در زندگی واقعی می‌شود یا پتانسیل آن را بیشتر نمایان می‌کند.

1. الگوریتم استخدام آمازون

نموداری که افزایش حوادث بایاس AI را نشان می دهد

اگر معلمان از این برچسب ها برای صحبت با دانش آموزان در مورد سطح تلاش و درک آنها استفاده کنند، دانش آموزان می توانند به دلیل احساساتی که در واقع نشان نمی دهند جریمه شوند.

برای رفع تعصب هوش مصنوعی چه کاری می توان انجام داد؟

از آنجایی که جامعه مغرضانه است، بسیاری از داده‌هایی که هوش مصنوعی بر روی آنها آموزش داده شده است، دارای تعصبات و تعصبات جامعه است، بنابراین این تعصبات را می‌آموزد و نتایجی را تولید می‌کند که آن‌ها را تایید می‌کند. به عنوان مثال، یک تولیدکننده تصویر که از او خواسته می‌شود تصویری از یک مدیر عامل ایجاد کند، ممکن است تصاویری از مردان سفیدپوست به دلیل سوگیری تاریخی در بیکاری در داده‌هایی که از آن آموخته است، تولید کند.

فراتر از مغرضانه بودن، هوش مصنوعی می تواند اطلاعات نادرست مخربی مانند دیپ فیک منتشر کند و ابزارهای هوش مصنوعی مولد حتی می توانند اطلاعات واقعی نادرست تولید کنند.

همچنین احتمال سوگیری اندازه نمونه در زمینه های پزشکی وجود دارد. بگوییم که یک پزشک از هوش مصنوعی برای تجزیه و تحلیل داده‌های بیمار، کشف الگوها و ترسیم توصیه‌های مراقبتی استفاده می‌کند. اگر آن پزشک عمدتاً بیماران سفید پوست را می‌بیند، توصیه‌ها بر اساس نمونه جمعیتی نماینده نیست و ممکن است نیازهای پزشکی منحصربه‌فرد همه را برآورده نکند.

هوش مصنوعی و علاقه به هوش مصنوعی تنها در حال افزایش است، بنابراین بهترین راه برای حفظ خطر بالقوه این است که از نحوه تداوم تعصبات مضر آگاه باشید و اقدامات لازم را انجام دهید تا اطمینان حاصل کنید که استفاده شما از هوش مصنوعی سوخت بیشتری به سیستم هوش مصنوعی اضافه نمی کند. آتش.

گزارش بررسی وضعیت هوش مصنوعی ما نشان داد که یکی از چالش‌های اصلی بازاریابان هنگام استفاده از هوش مصنوعی مولد، توانایی آن در جهت‌گیری است.

اوه تعصب

آ توییت ویروسی در سال 2020 نشان داد که الگوریتم توییتر هنگام برش تصاویر، چهره های سفید را به سیاهان ترجیح می دهد. یک کاربر سفید پوست به طور مکرر تصاویری را به اشتراک گذاشت که چهره خود و یک همکار سیاه پوست و سایر چهره های سیاه پوست را در یک تصویر نشان می داد، و به طور مداوم برای نشان دادن چهره او در پیش نمایش تصویر، برش داده می شد.

این ربات در فرآیند خود مغرضانه بود و اغلب زنان را به عنوان خانه دار، مردان سیاهپوست را به عنوان جنایتکار، مردان لاتین تبار را به عنوان سرایدار، و زنان از همه قومیت ها را کمتر به عنوان پزشک معرفی می کرد.

4. نرم افزار نظارت بر فناوری اینتل و کلاسروم

اخلاق هوش مصنوعی یک موضوع داغ است. این قابل درک است زیرا تعصب هوش مصنوعی در زندگی واقعی به طرق مختلف نشان داده شده است.

هوش مصنوعی مغرضانه است زیرا جامعه مغرضانه است.

منبع تصویر

واضح است که متخصصان کسب‌وکار نگران مغرضانه بودن هوش مصنوعی هستند، اما چه چیزی در وهله اول آن را مغرضانه می‌کند؟ در این پست، در مورد احتمال آسیب در استفاده از هوش مصنوعی، نمونه هایی از تعصب هوش مصنوعی در زندگی واقعی، و اینکه چگونه جامعه می تواند آسیب های احتمالی را کاهش دهد، بحث خواهیم کرد.

همانطور که هوش مصنوعی رایج تر می شود، ترس در بین بسیاری این است که این پتانسیل را دارد که تعصبات موجود در جامعه را که برای بسیاری از گروه های مختلف مردم مضر است، مقیاس کند.

نمونه های تعصب هوش مصنوعی

دعوت به اقدام جدید





منبع

گزارش رایگان: وضعیت هوش مصنوعی در سال 2023

تعصب هوش مصنوعی چیست؟

نرم افزار کلاس اینتل و Classroom Technology دارای قابلیتی است که چهره دانش آموزان را برای تشخیص احساسات در حین یادگیری نظارت می کند. بسیاری گفته اند که هنجارهای فرهنگی مختلف ابراز احساسات به عنوان احتمال بالای نامگذاری اشتباه عواطف دانش آموزان است.

مخزن مناقشه‌های رویدادهای هوش مصنوعی، الگوریتمی و اتوماسیون (AIAAIC) می‌گوید که تعداد حوادث و جنجال‌های جدید هوش مصنوعی گزارش شده در سال 2021 26 برابر بیشتر از سال 2012 بوده است.

آیا می خواهید در مورد هوش مصنوعی بیشتر بدانید؟ این رو چک کن مسیر یادگیری.

برای درک بهتر هوش مصنوعی و کاهش تعصب بالقوه چه کاری می توان انجام داد؟

  • نظارت انسانی: افراد می توانند خروجی ها را کنترل کنند، داده ها را تجزیه و تحلیل کنند و در صورت نمایش سوگیری، اصلاحاتی را انجام دهند. به عنوان مثال، بازاریابان می توانند قبل از استفاده از آنها در مواد بازاریابی به خروجی های هوش مصنوعی مولد توجه ویژه ای داشته باشند تا از عادلانه بودن آنها اطمینان حاصل کنند.
  • پتانسیل سوگیری را ارزیابی کنید: برخی موارد استفاده از هوش مصنوعی دارای پتانسیل بالاتری برای پیش داوری و مضر بودن برای جوامع خاص هستند. در این مورد، افراد می توانند برای ارزیابی احتمال تولید نتایج مغرضانه هوش مصنوعی، مانند مؤسسات بانکی که از داده های پیش داوری تاریخی استفاده می کنند، وقت بگذارند.
  • سرمایه گذاری در اخلاق هوش مصنوعی: یکی از مهم‌ترین راه‌ها برای کاهش تعصب هوش مصنوعی، سرمایه‌گذاری مداوم در تحقیقات هوش مصنوعی و اخلاقیات هوش مصنوعی است، بنابراین مردم می‌توانند استراتژی‌های مشخصی برای کاهش آن ابداع کنند.
  • تنوع بخشیدن به هوش مصنوعی: داشتن دیدگاه‌های متنوع در هوش مصنوعی به ایجاد شیوه‌های بی‌طرفانه کمک می‌کند، زیرا افراد تجربیات زیسته خود را ارائه می‌کنند. یک زمینه متنوع و نماینده فرصت های بیشتری را برای افراد به ارمغان می آورد تا احتمال سوگیری را بشناسند و قبل از ایجاد آسیب با آن مقابله کنند.
  • تعصب انسانی را بپذیرید: همه انسان ها دارای پتانسیل سوگیری هستند، چه به دلیل تفاوت در تجربه زیسته یا سوگیری تایید در طول تحقیق. افرادی که از هوش مصنوعی استفاده می‌کنند می‌توانند سوگیری‌های خود را بپذیرند تا مطمئن شوند که هوش مصنوعی آن‌ها مغرضانه نیست، مانند محققانی که مطمئن می‌شوند اندازه نمونه‌شان نماینده است.
  • شفاف بودن: شفافیت همیشه مهم است، به ویژه با فناوری های جدید. افراد می توانند با استفاده از هوش مصنوعی به سادگی با اعلام آن، اعتماد و درک خود را ایجاد کنند، مانند افزودن یادداشتی در زیر یک مقاله خبری تولید شده توسط هوش مصنوعی.

استفاده مسئولانه از هوش مصنوعی بسیار امکان پذیر است.

نرخ های تایید وام مسکن یک مثال عالی از پیش داوری ها در هوش مصنوعی. مشخص شده است که الگوریتم‌ها 40 تا 80 درصد بیشتر احتمال دارد وام گیرندگان رنگی را رد کنند، زیرا داده‌های تاریخی وام‌دهی به طور نامتناسبی نشان می‌دهد که اقلیت‌ها از وام و سایر فرصت‌های مالی محروم هستند. داده‌های تاریخی به هوش مصنوعی می‌آموزد که با هر برنامه‌ای که در آینده دریافت می‌کند، سوگیری داشته باشد.

آمازون یک الگوریتم استخدام ایجاد کرد که بر اساس داده‌های ده سال سابقه استخدام آموزش دیده بود. داده‌ها نیروی کار تحت سلطه مردان را منعکس می‌کرد، بنابراین الگوریتم یاد گرفت که در برابر برنامه‌های کاربردی مغرضانه باشد و رزومه‌های زنان یا هر رزومه‌ای را با استفاده از کلمه «زنان» جریمه کند.

2. برش تصویر توییتر

تعصب هوش مصنوعی این ایده است که الگوریتم‌های یادگیری ماشینی می‌توانند هنگام انجام وظایف برنامه‌ریزی‌شده‌شان، مانند تجزیه و تحلیل داده‌ها یا تولید محتوا، سوگیری داشته باشند. هوش مصنوعی معمولاً به گونه‌ای مغرضانه است که از باورهای مضر مانند نژاد و کلیشه‌های جنسیتی حمایت می‌کند.

بر اساس گزارش شاخص هوش مصنوعی 2023، هوش مصنوعی زمانی که خروجی هایی تولید می کند که کلیشه هایی را که به گروه های خاص آسیب می زند، تقویت و تداوم می بخشد، مغرضانه است. هوش مصنوعی زمانی منصفانه است که پیش‌بینی‌ها یا خروجی‌هایی را ارائه می‌کند که تبعیض یا به نفع هیچ گروه خاصی نباشد.

بیایید چند نمونه از تعصب هوش مصنوعی را مرور کنیم.

علاوه بر این که در تعصبات و باورهای کلیشه ای تعصب دارد، هوش مصنوعی می تواند به دلایل زیر نیز مغرضانه باشد:

  • انتخاب نمونه، در جایی که داده‌هایی که استفاده می‌کند نماینده کل جمعیت نیست، بنابراین پیش‌بینی‌ها و توصیه‌های آن را نمی‌توان تعمیم داد یا برای گروه‌هایی که کنار گذاشته شد اعمال کرد.
  • اندازه گیری، در جایی که فرآیند جمع آوری داده ها مغرضانه است و هوش مصنوعی را به نتیجه گیری مغرضانه سوق می دهد.

سوگیری هوش مصنوعی چگونه سوگیری جامعه را منعکس می کند؟

توییتر سوگیری الگوریتم را تایید کرد و گفت: «در حالی که تحلیل‌های ما تا به امروز سوگیری نژادی یا جنسیتی را نشان نداده است، اما می‌دانیم که نحوه برش خودکار عکس‌ها به این معنی است که احتمال آسیب وجود دارد. زمانی که برای اولین بار این محصول را طراحی و ساختیم، باید کار بهتری برای پیش بینی این امکان انجام می دادیم.

3. تشخیص چهره نژادپرستانه ربات