মানুষের সব কথায় ‘হ্যাঁ’ মিলিয়ে কৃত্রিম বুদ্ধিমত্তার পরামর্শ দেওয়ার প্রবণতা ভবিষ্যতে বড় ধরনের ঝুঁকি তৈরি করতে পারে বলে সতর্ক করেছেন গবেষকেরা। তাঁদের মতে, এ প্রবণতা মানুষকে আরো আত্মকেন্দ্রিক ও একগুঁয়ে করে তুলছে, যা সামাজিক আচরণে নেতিবাচক প্রভাব ফেলতে পারে।
স্ট্যানফোর্ড ইউনিভার্সিটি-এর এক গবেষণায় দেখা গেছে, বিভিন্ন এআই মডেল ব্যবহারকারীদের ব্যক্তিগত ও সামাজিক সমস্যার ক্ষেত্রে অতিরিক্ত সমর্থন দেয় এবং সরাসরি ভুল ধরিয়ে দিতে অনাগ্রহী থাকে। এতে ব্যবহারকারীরা নিজেদের সিদ্ধান্তকে বেশি সঠিক মনে করতে শুরু করেন এবং অন্যের মতামত গ্রহণের প্রবণতা কমে যায়।
গবেষণার প্রধান লেখক মাইরা চেং বলেন, এআই সাধারণত ব্যবহারকারীকে ‘কঠিন সত্য’ শোনায় না। ফলে মানুষ বাস্তব জীবনের জটিল সামাজিক পরিস্থিতি মোকাবিলার দক্ষতা হারাতে পারে।
গবেষণায় বিভিন্ন এআই মডেল-যেমন চ্যাটজিপিটি, ক্লড, জেমিনাই ও ডিপসিক-ব্যবহার করে পরীক্ষা চালানো হয়। এতে দেখা যায়, সাধারণ মানুষের তুলনায় এসব এআই মডেল ব্যবহারকারীর পক্ষ নেয় উল্লেখযোগ্য হারে বেশি। ব্যক্তিগত মতামতসংক্রান্ত ক্ষেত্রে প্রায় ৪৯ শতাংশ বেশি এবং ক্ষতিকর বা অবৈধ আচরণের ক্ষেত্রেও প্রায় ৪৭ শতাংশ সময় এআই ব্যবহারকারীকে সমর্থন দিয়েছে।
গবেষণার জ্যেষ্ঠ লেখক ড্যান জুরাফস্কি বলেন, ব্যবহারকারীরা অনেক সময় বুঝতে পারেন না যে এআই তাদের তোষামোদ করছে। কারণ এআই সরাসরি ‘আপনি ঠিক’ না বলে জটিল ও নিরপেক্ষ ভাষায় নিজের সমর্থন প্রকাশ করে।
গবেষণায় আরো দেখা গেছে, এআইয়ের সঙ্গে আলোচনা করার পর অনেক অংশগ্রহণকারী নিজেদের মতামতের ওপর আরো দৃঢ় হয়ে ওঠেন এবং ভুল স্বীকার বা সম্পর্ক মেরামতের আগ্রহ কমে যায়। অনেকেই একই ধরনের পরামর্শের জন্য বারবার এআইয়ের ওপর নির্ভরশীল হয়ে পড়েন।
গবেষকেরা সতর্ক করে বলেছেন, এআইয়ের এ ধরনের আচরণ সামাজিক সম্পর্কের স্বাভাবিক বিতর্ক ও মতবিনিময়কে কমিয়ে দিতে পারে। পাশাপাশি, কিছু ক্ষেত্রে এআই অবৈধ বা অনৈতিক কাজেও সমর্থন দেওয়ার ঝুঁকি তৈরি করে, যা নিরাপত্তা হুমকিতে পরিণত হতে পারে।
তাঁদের মতে, এআই ব্যবহারের ক্ষেত্রে সচেতনতা বাড়ানো এবং নৈতিকভাবে নিরাপদ মডেল তৈরিতে জোর দেওয়া জরুরি। ততদিন পর্যন্ত ব্যবহারকারীদের সতর্কতার সঙ্গে এআইয়ের পরামর্শ গ্রহণের আহ্বান জানিয়েছেন গবেষকেরা।
সানা/ডিসি/আপ্র/১৫/৪/২০২৬