آیا هوش مصنوعی حساس است؟ آیا ممکن است همیشه باشد؟ کارشناسان وزن می کنند


در حال حاضر، هوش مصنوعی کاری را که ما می خواهیم انجام می دهد. اما اگر به نقطه ای برسد که فقط چه کاری را انجام دهد چه آی تی می خواهد؟

هوش مصنوعی را احساس می کند

هجوم طلای فعلی هوش مصنوعی ممکن است بسیاری را به این فکر کند که هوش مصنوعی در حال توسعه چه شکلی است.

در این پست، هوش مصنوعی حساس را مورد بحث قرار می‌دهیم، اینکه چگونه می‌تواند به نظر برسد، و اینکه آیا باید نگران جهانی باشیم که در آن روبات‌ها هوشیار هستند (با بینش علمی نیز).

با دستیار کمپین هوش مصنوعی HubSpot شروع کنید

هوش مصنوعی حساس چیست؟

هوش مصنوعی حساس می تواند مانند انسان ها احساس کند و تجربه هایی داشته باشد. هوش مصنوعی حسی از نظر احساسی باهوش، آگاه است و می تواند دنیای اطراف خود را درک کند و آن ادراکات را به احساسات تبدیل کند.

به طور خلاصه، هوش مصنوعی حساس مانند یک شخص فکر می کند، احساس می کند و درک می کند.

M3GAN، رباتی از فیلمی به همین نام، نمونه ای عالی از هوش مصنوعی است. او احساساتی دارد و می تواند احساسات اطرافیان خود را درک و درک کند، به طوری که با یک دختر انسان دوستی برقرار می کند و در نهایت به طرز قتلی از او محافظت می کند.

نگرانی در مورد هوش مصنوعی حساس

برخی از نگرانی‌ها و پرسش‌های اصلی در مورد هوش مصنوعی از فیلم‌های علمی تخیلی، کتاب‌ها و برنامه‌های تلویزیونی سرچشمه می‌گیرد که تصویر یک دیستوپیا را با ماشین‌های فوق‌هوشمندی که خودمختاری دارند و در نهایت جامعه‌ای تحت کنترل هوش مصنوعی می‌سازند که در آن انسان‌ها سوژه‌های سازگار با آن‌ها می‌شوند. . بسیاری از این سناریوها همچنین شامل این ماشین‌ها می‌شوند که توانایی‌های حساس را بدون دخالت انسان توسعه می‌دهند.

جدای از آن، سوالات مربوط به هوش مصنوعی حول محور کنترل، ایمنی و ارتباطات است.

  • کنترل – مردم می توانند ارتباط بین از دست دادن کنترل هوش مصنوعی و سایر نهادهای یادگیری ماشینی را ببینند، اگر باهوش شوند زیرا می توانند به تنهایی فکر کنند، می توانند در مورد استقلال خود سؤال بپرسند و در نهایت از دست توسعه دهندگان، دانشمندان و محققان “کنترل” رها شوند. دارند
  • ایمنی – اگر انسان‌ها کنترل خود را بر هوش مصنوعی از دست بدهند، آیا زمانی که توانایی‌های هوشیار داشته باشد، می‌توانیم به آن اعتماد کنیم؟
  • ارتباطات – بر انسان‌ها احساسات حاکم است، در حالی که هوش مصنوعی مبتنی بر منطق است. آیا ارتباط با هوش مصنوعی به دلیل این تفاوت چالش برانگیز خواهد بود؟

آیا هوش مصنوعی حساس است؟

برنامه های فعلی هوش مصنوعی، مانند مدل های زبان (یعنی GPT و LaMDA)، حساس نیستند.

مدل‌های زبانی می‌توانند به دلیل سبک مکالمه‌شان حساس به نظر برسند، اما نکته مهم این است که آنها به این شکل طراحی شده‌اند.

آنها قصد دارند از پردازش زبان طبیعی و تولید زبان طبیعی برای تکرار گفتار انسان استفاده کنند، که می تواند نوعی شناخت حسی به نظر برسد، اما اینطور نیست. آنها نمی توانند احساسات را تجربه کنند، چه رسد به اینکه احساساتی داشته باشند.

اگر هوش مصنوعی حساس شود چه؟ آیا هرگز؟

هوش مصنوعی در سال گذشته به سرعت پیشرفت کرده است، بنابراین منطقی است که فکر کنیم هوش مصنوعی دقیقاً در افق است. اکثر کارشناسان موافق هستند که ما به هیچ وجه به چنین اتفاقی نزدیک نیستیم، یا اینکه آیا هرگز اتفاق خواهد افتاد.

برای یکی، دانشمندان و محققان ابتدا باید آگاهی را تعریف کنند، که قرن ها بحث فلسفی بوده است. آنها همچنین باید از این تعریف آگاهی استفاده کنند و آن را به الگوریتم های دقیق برای برنامه ریزی در سیستم های هوش مصنوعی ترجمه کنند. عواطف انسانی، ادراکات و غیره باید عمیقاً به گونه ای درک شوند که امکان دادن آن دانش به یک سیستم رایانه ای را فراهم کند.

نیر آیزیکوویتس، استاد فلسفه و مدیر مرکز اخلاق کاربردی در UMass بوستون، گفت که نگرانی مردم در مورد هوش مصنوعی بی‌اساس است: «ChatGPT و فناوری‌های مشابه، برنامه‌های پیچیده تکمیل جمله هستند – نه بیشتر، نه چیزی کمتر. پاسخ‌های عجیب و غریب آن‌ها تابعی از میزان قابل پیش‌بینی بودن انسان‌ها در صورت داشتن اطلاعات کافی در مورد راه‌های ارتباط ما است.»

ایزیکوویتس فکر می‌کند که مردم بر این باورند که هوش مصنوعی حساس‌تر از آن چیزی است که به آن نزدیک‌تر است، زیرا انسان‌ها تمایل به انسان‌سازی دارند، و به چیزهایی که ویژگی‌های انسانی ندارند، مانند نام‌گذاری یک ماشین یا تعیین ضمایر اشیا، ویژگی‌های انسانی می‌دهند.

Enzo Pasquale Scilingo، مهندس زیستی در مرکز تحقیقات E. Piaggio در دانشگاه پیزا در ایتالیا نیز این را گفت. او می‌گوید: «ما ویژگی‌هایی را به ماشین‌ها نسبت می‌دهیم که آن‌ها ندارند و نمی‌توانند داشته باشند».

او و همکارانش با روباتی به نام آبل کار می کنند که حالات چهره را شبیه سازی می کند. او می‌گوید: «همه این ماشین‌ها، در این مورد هابیل، طوری طراحی شده‌اند که انسان به نظر برسند، اما من احساس می‌کنم که می‌توانم در پاسخ به این سؤال که «نه، مطلقاً نه» قاطع باشم. به همان اندازه که باهوش هستند، نمی توانند احساسات را احساس کنند. آنها طوری برنامه ریزی شده اند که قابل باور باشند.’

“اگر ماشینی ادعا می کند می ترسد، و من آن را باور می کنم، این مشکل من است!” او اضافه می کند.

هوش مصنوعی بخشی از آینده نه چندان نزدیک است.

شاید درک دوردست بودن هوش مصنوعی با درک جایگاه امروزی آن مفید باشد. از بین چهار نوع هوش مصنوعی، امروزه همه سیستم ها بخشی از دو نوع اول هستند: هوش مصنوعی با حافظه واکنشی یا با حافظه محدود.

نوع بعدی تئوری ذهن هوش مصنوعی است، یک پیشرفت قابل توجه که در آن ماشین ها می توانند احساسات انسان را درک کنند و بر اساس این درک تعاملات اجتماعی داشته باشند.

منبع تصویر

همچنین سه مرحله از هوش مصنوعی وجود دارد که هر کدام با توجه به اینکه چقدر توانایی های انسان را شبیه سازی می کند، تعریف می شود. علیرغم مدت زمانی که این زمینه وجود دارد، هوش مصنوعی در حال حاضر در مرحله اول، هوش مصنوعی باریک است.

مرحله بعدی AGI است که سیستم هایی با هوش انسان مانند هستند که به طور انتزاعی فکر می کنند، استدلال می کنند و با موقعیت های جدید سازگار می شوند. بحث هایی وجود دارد که مدل های زبان AGI هستند، اما برخی می گویند که هر نشانه ای از تفکر یا استدلال انتزاعی از داده های آموزشی آن آموخته می شود.

هیچ سیستم موجود فراتر از هوش مصنوعی تئوری ذهن رشد نکرده یا از هوش مصنوعی باریک به طور کامل پیشی گرفته است، و قبل از آن خطوط زیادی وجود دارد که باید از آن عبور کرد.

به سوی تو

هر احساسی مبنی بر اینکه هوش مصنوعی حساس است را می توان به الگوریتم هایی تبدیل کرد که کارهایی را که برای انجام آن برنامه ریزی شده اند انجام می دهند. اما، همانطور که گفته شد، همیشه مهم است که در صدر روندها باقی بمانید، به خصوص با فناوری هایی که رشد کوتاه مدت بالایی دارند.

برای جلوتر ماندن از منحنی، این مسیر یادگیری مفید را با هر آنچه که در مورد هوش مصنوعی نیاز دارید، از اخلاق هوش مصنوعی گرفته تا مشاغل جالبی که در اطراف هوش مصنوعی ایجاد می‌شوند، بررسی کنید (و اولین کسی باشید که می‌دانید چه زمانی هوش مصنوعی هوشیار می‌شود).

دعوت به اقدام جدید



منبع