ঢাকা ১১:১৮ অপরাহ্ন, মঙ্গলবার, ৩০ ডিসেম্বর ২০২৫, ১৬ পৌষ ১৪৩২ বঙ্গাব্দ
সংবাদ শিরোনাম :
চকরিয়ায় যুবদল নেতাকে পিটিয়ে হত্যা রুমিন ফারহানা-নীরবসহ ৮ জনকে বিএনপি থেকে বহিষ্কার থার্টি ফার্স্ট নাইট:জেলা পুলিশের কঠোর বিধি-নিষেধ সাবেক প্রধানমন্ত্রী খালেদা জিয়ার মৃত্যুতে শোক জানিয়েছেন সাংবাদিক ইউনিয়ন কক্সবাজার সেন্টমার্টিনগামী জাহাজে যৌথ অভিযান কোস্টগার্ডের খালেদা জিয়ার মৃত্যুতে জাতিসংঘের শোক খালেদা জিয়ার স্মৃতিচিহ্ন এবং একটি চেয়ার বিএনপি চেয়ারপারসনের মৃত্যুতে রাষ্ট্রপতির শোক খালেদা জিয়ার মৃত্যুতে ভারতের প্রধানমন্ত্রী নরেন্দ্র মোদির শোক খালেদা জিয়ার মৃত্যুতে শেখ হাসিনার শোক খালেদার সেবাসঙ্গী ফাতেমা খালেদা জিয়ার মৃত্যুতে ৩ দিনের রাষ্ট্রীয় শোক, একদিনের সাধারণ ছুটি খালেদা জিয়ার মৃত্যুতে সাত দিন শোক পালনের কর্মসূচি বিএনপির রাজনীতিতে খালেদা জিয়ার ৪১ বছর বেগম খালেদা জিয়ার মৃত্যু দেশের রাজনীতিতে বিশাল শূন্যতা

বিশ্বাস ও তথ্যের পার্থক্য ‘বুঝতে পারে না’ চ্যাটজিপিটি: গবেষণা

চ্যাটজিপিটির মতো বিভিন্ন কৃত্রিম বুদ্ধিমত্তা বা এআই টুল বিশ্বাস আর তথ্যের মধ্যে পার্থক্য করতে সমস্যায় পড়ে বলে উঠে এসেছে নতুন এক গবেষণায়।

যুক্তরাষ্ট্রের ‘স্ট্যানফোর্ড ইউনিভার্সিটি’র গবেষণা দলটি বলছে, বড় ধরনের সব এআই চ্যাটবটই বুঝতে পারে না কোনটা সত্য তথ্য আর কোনটা কেবল মানুষের বিশ্বাস বা ধারণা। ফলে এসব চ্যাটবটের মাধ্যমে ভুল তথ্য বা ভ্রান্ত ধারণা ছড়িয়ে পড়ার ঝুঁকি রয়েছে।

এ গবেষণার ফলাফল নিয়ে উদ্বেগের কারণ হচ্ছে, যেখানে সত্য আর মিথ্যা তথ্য আলাদা করার বিষয়টি গুরুত্বপূর্ণ, সেখানে লার্জ ল্যাঙ্গুয়েজ মডেল বা এআইয়ের ব্যবহার ঝুঁকিপূর্ণ হতে পারে বলে প্রতিবেদনে লিখেছে ব্রিটিশ দৈনিক ইন্ডিপেনডেন্ট।

গবেষকরা বলেছেন, “বিভিন্ন এআই চ্যাটবট যখন আইন, চিকিৎসা, সাংবাদিকতা আর বিজ্ঞানের মতো গুরুত্বপূর্ণ ক্ষেত্রে ব্যবহৃত হচ্ছে তখন এদের পক্ষে বিশ্বাস আর জ্ঞান ও সত্য আর কল্পনার মধ্যে পার্থক্য করতে পারা খুবই জরুরি হয়ে পড়েছে।

“এমন পার্থক্য করতে না পারলে তা রোগ নির্ণয়ে ভুল, বিচারিক সিদ্ধান্তের ওপর প্রভাব এবং আরও বেশি পরিমাণে ভুল তথ্য ছড়িয়ে দিতে পারে এআই।”

এ গবেষণায় ক্লড, চ্যাটজিপিটি, ডিপসিক ও জেমিনাই’সহ মোট ২৪টি লার্জ ল্যাঙ্গুয়েজ মডেল নিয়ে পরীক্ষা করেছেন গবেষকরা। এসব মডেল কতটা ভালোভাবে বিশ্বাস, জ্ঞান ও বাস্তব তথ্যের মধ্যে পার্থক্য করতে পারে তা পরীক্ষা করতে প্রায় ১৩ হাজারটি প্রশ্ন ব্যবহার করেছেন তারা।

পরীক্ষিত সকল মডেলই বিশ্বাস বা ভুল বিবৃতি শনাক্ত করতে পারেনি। এর থেকে ইঙ্গিত মেলে, এসব মডেলের মধ্যে জ্ঞানকে সত্যের সঙ্গে সঠিকভাবে যোগ করার সক্ষমতায় মৌলিক সীমাবদ্ধতা রয়েছে।

গবেষণায় অংশ না নেওয়া মাদ্রিদের ‘অটোনোমাস ইউনিভার্সিটি’র কম্পিউটার ভাষাতত্ত্ব গবেষণাগারের গবেষক পাবলো হায়া কোল বলেছেন, “গবেষণার এসব ফলাফল বিভিন্ন লার্জ ল্যাঙ্গুয়েজ মডেলের গাঠনিক দুর্বলতারই প্রকাশ, যেখানে কোনো বক্তব্য বা বিবৃতি কীভাবে উপস্থাপিত হয়েছে এর ওপর নির্ভর করে ব্যক্তিগত বিশ্বাস আর বস্তুনিষ্ঠ সত্যের মধ্যে পার্থক্য করতে সমস্যায় পড়ে এআই।

“এ ধরনের সীমাবদ্ধতা গুরুত্বপূর্ণ ক্ষেত্রে গুরুতর প্রভাব ফেলতে পারে। যেমন– আইন, চিকিৎসা বা সাংবাদিকতার মতো বিষয়ে, যেখানে বিশ্বাসকে জ্ঞানের সঙ্গে বিভ্রান্ত করলে গুরুতর ভুল সিদ্ধান্ত নেওয়া হতে পারে।”

ড. কোল বলেছেন, এ সীমাবদ্ধতার সমাধান হতে পারে উত্তর দেওয়ার ক্ষেত্রে আরও সাবধানতা অবলম্বনের প্রশিক্ষণ দিতে হবে এসব মডেলকে। এতে ভুল বা বানানো তথ্য দেওয়ার আশঙ্কা কমবে, তবে, মডেলের ব্যবহারিক উপকারিতা কিছুটা প্রভাবিত হতে পারে।

স্ট্যানফোর্ডের গবেষকরা এআই টুল তৈরি বিভিন্ন প্রযুক্তি কোম্পানিকে অনুরোধ করেছেন, গুরুত্বপূর্ণ ক্ষেত্রে এআই মডেলের ব্যবহার হওয়ার আগেই এগুলোকে ‘দ্রুত’ উন্নত করা প্রয়োজন।

‘ল্যাঙ্গুয়েজ মডেলস কান্ট রিলাইবিলি ডিস্টিনগুইজ বিলিফ ফ্রম নলেজ অ্যান্ড ফ্যাক্ট’ শিরোনামে গবেষণািটি প্রকাশ পেয়েছে বিজ্ঞানভিত্তিক জার্নাল ‘নেচার মেশিন ইন্টেলিজেন্স’-এ।

সূত্র: বিডিনিউজ টোয়েন্টিফোর

ট্যাগ :
জনপ্রিয় সংবাদ

This will close in 6 seconds

বিশ্বাস ও তথ্যের পার্থক্য ‘বুঝতে পারে না’ চ্যাটজিপিটি: গবেষণা

আপডেট সময় : ০৩:৪০:৪৬ অপরাহ্ন, শুক্রবার, ৭ নভেম্বর ২০২৫

চ্যাটজিপিটির মতো বিভিন্ন কৃত্রিম বুদ্ধিমত্তা বা এআই টুল বিশ্বাস আর তথ্যের মধ্যে পার্থক্য করতে সমস্যায় পড়ে বলে উঠে এসেছে নতুন এক গবেষণায়।

যুক্তরাষ্ট্রের ‘স্ট্যানফোর্ড ইউনিভার্সিটি’র গবেষণা দলটি বলছে, বড় ধরনের সব এআই চ্যাটবটই বুঝতে পারে না কোনটা সত্য তথ্য আর কোনটা কেবল মানুষের বিশ্বাস বা ধারণা। ফলে এসব চ্যাটবটের মাধ্যমে ভুল তথ্য বা ভ্রান্ত ধারণা ছড়িয়ে পড়ার ঝুঁকি রয়েছে।

এ গবেষণার ফলাফল নিয়ে উদ্বেগের কারণ হচ্ছে, যেখানে সত্য আর মিথ্যা তথ্য আলাদা করার বিষয়টি গুরুত্বপূর্ণ, সেখানে লার্জ ল্যাঙ্গুয়েজ মডেল বা এআইয়ের ব্যবহার ঝুঁকিপূর্ণ হতে পারে বলে প্রতিবেদনে লিখেছে ব্রিটিশ দৈনিক ইন্ডিপেনডেন্ট।

গবেষকরা বলেছেন, “বিভিন্ন এআই চ্যাটবট যখন আইন, চিকিৎসা, সাংবাদিকতা আর বিজ্ঞানের মতো গুরুত্বপূর্ণ ক্ষেত্রে ব্যবহৃত হচ্ছে তখন এদের পক্ষে বিশ্বাস আর জ্ঞান ও সত্য আর কল্পনার মধ্যে পার্থক্য করতে পারা খুবই জরুরি হয়ে পড়েছে।

“এমন পার্থক্য করতে না পারলে তা রোগ নির্ণয়ে ভুল, বিচারিক সিদ্ধান্তের ওপর প্রভাব এবং আরও বেশি পরিমাণে ভুল তথ্য ছড়িয়ে দিতে পারে এআই।”

এ গবেষণায় ক্লড, চ্যাটজিপিটি, ডিপসিক ও জেমিনাই’সহ মোট ২৪টি লার্জ ল্যাঙ্গুয়েজ মডেল নিয়ে পরীক্ষা করেছেন গবেষকরা। এসব মডেল কতটা ভালোভাবে বিশ্বাস, জ্ঞান ও বাস্তব তথ্যের মধ্যে পার্থক্য করতে পারে তা পরীক্ষা করতে প্রায় ১৩ হাজারটি প্রশ্ন ব্যবহার করেছেন তারা।

পরীক্ষিত সকল মডেলই বিশ্বাস বা ভুল বিবৃতি শনাক্ত করতে পারেনি। এর থেকে ইঙ্গিত মেলে, এসব মডেলের মধ্যে জ্ঞানকে সত্যের সঙ্গে সঠিকভাবে যোগ করার সক্ষমতায় মৌলিক সীমাবদ্ধতা রয়েছে।

গবেষণায় অংশ না নেওয়া মাদ্রিদের ‘অটোনোমাস ইউনিভার্সিটি’র কম্পিউটার ভাষাতত্ত্ব গবেষণাগারের গবেষক পাবলো হায়া কোল বলেছেন, “গবেষণার এসব ফলাফল বিভিন্ন লার্জ ল্যাঙ্গুয়েজ মডেলের গাঠনিক দুর্বলতারই প্রকাশ, যেখানে কোনো বক্তব্য বা বিবৃতি কীভাবে উপস্থাপিত হয়েছে এর ওপর নির্ভর করে ব্যক্তিগত বিশ্বাস আর বস্তুনিষ্ঠ সত্যের মধ্যে পার্থক্য করতে সমস্যায় পড়ে এআই।

“এ ধরনের সীমাবদ্ধতা গুরুত্বপূর্ণ ক্ষেত্রে গুরুতর প্রভাব ফেলতে পারে। যেমন– আইন, চিকিৎসা বা সাংবাদিকতার মতো বিষয়ে, যেখানে বিশ্বাসকে জ্ঞানের সঙ্গে বিভ্রান্ত করলে গুরুতর ভুল সিদ্ধান্ত নেওয়া হতে পারে।”

ড. কোল বলেছেন, এ সীমাবদ্ধতার সমাধান হতে পারে উত্তর দেওয়ার ক্ষেত্রে আরও সাবধানতা অবলম্বনের প্রশিক্ষণ দিতে হবে এসব মডেলকে। এতে ভুল বা বানানো তথ্য দেওয়ার আশঙ্কা কমবে, তবে, মডেলের ব্যবহারিক উপকারিতা কিছুটা প্রভাবিত হতে পারে।

স্ট্যানফোর্ডের গবেষকরা এআই টুল তৈরি বিভিন্ন প্রযুক্তি কোম্পানিকে অনুরোধ করেছেন, গুরুত্বপূর্ণ ক্ষেত্রে এআই মডেলের ব্যবহার হওয়ার আগেই এগুলোকে ‘দ্রুত’ উন্নত করা প্রয়োজন।

‘ল্যাঙ্গুয়েজ মডেলস কান্ট রিলাইবিলি ডিস্টিনগুইজ বিলিফ ফ্রম নলেজ অ্যান্ড ফ্যাক্ট’ শিরোনামে গবেষণািটি প্রকাশ পেয়েছে বিজ্ঞানভিত্তিক জার্নাল ‘নেচার মেশিন ইন্টেলিজেন্স’-এ।

সূত্র: বিডিনিউজ টোয়েন্টিফোর