شفقنا- پژوهشهای تازه نشان دادهاند که هوش مصنوعی، با وجود تفاوتهای بنیادین با ذهن انسان، همانند انسان دچار خطاها و سوگیریهای شناختی میشود.
به گزارش شفقنا؛ وبگاه آرتی عربی نوشت: «دانشمندان کشف کردهاند که حتی پیشرفتهترین مدلهای هوش مصنوعی نیز گاه رفتارهای غیرمنطقی از خود نشان میدهند. بر اساس یافتههای مطالعهای که توسط پژوهشگرانی از دانشگاههای کانادا و استرالیا انجام شدهاست، ربات گفتوگوی ChatGPT در ۴۷ درصد موارد دچار دامهای روانشناختی متداولی میشود که در انسانها نیز مشاهده میشود».
آزمایشها بر روی مدلهای GPT-3.5 و GPT-4 که توسط شرکت OpenAI توسعه یافتهاند، نشان داد که این سامانهها با وجود انسجام بالا در استنتاجهای خود، همچنان در برابر الگوهای رفتاری مشابه انسان آسیبپذیرند. پژوهشگران تأکید کردهاند که این انسجام میتواند پیامدهای مثبت و منفی داشته باشد.
در این تحقیق، شبکه عصبی با سوگیریهای شناختی شناختهشده مانند گریز از ریسک، اعتماد بهنفس بیش از حد، و اثر موفقیت مورد ارزیابی قرار گرفت. پرسشها نیز هم شامل موضوعات روانشناسی سنتی بودند، هم موقعیتهای واقعی در حوزه کسبوکار را دربر میگرفتند.
مدل GPT-4 در انجام وظایفی که راهحلهای ریاضی روشن داشتند، عملکرد بهتری نشان داد و در موقعیتهای مبتنی بر منطق و احتمال، خطاهای کمتری مرتکب شد. اما در شبیهسازیهای مربوط به تصمیمگیری شخصی، مانند انتخاب گزینههای پرریسک برای دستیابی به سود، اغلب همان الگوهای غیرمنطقی ذهن انسان در پاسخهای آن مشاهده شد.
با این حال، پژوهشگران میگویند که GPT-4 گرایش بیشتری به پیشبینیپذیری و ایمنی نسبت به انسانها دارد.
یانگ چن، استاد یار بخش مدیریت عملیاتی در دانشکده بازرگانی آیوی کانادا، توصیه کردهاست: «برای دریافت کمک دقیق و بیطرفانه در تصمیمگیری، از هوش مصنوعی در موقعیتهایی استفاده کنید که به رایانه اعتماد دارید. اما زمانی که تصمیم به دادههای راهبردی یا شخصی وابسته است، نظارت انسانی ضروری است. نباید هوش مصنوعی را کارمندی تصور کرد که تصمیمهای سرنوشتساز میگیرد؛ بلکه باید تحت نظارت و هدایت اخلاقی قرار گیرد. در غیر این صورت، بهجای اصلاح تفکر اشتباه، آن را خودکارسازی خواهیم کرد».