ঢাকা ০৭:৩০ অপরাহ্ন, মঙ্গলবার, ০৯ ডিসেম্বর ২০২৫, ২৫ অগ্রহায়ণ ১৪৩২ বঙ্গাব্দ
সংবাদ শিরোনাম :
৮ বছর পর আলোয় আলোকময় রাতের সৈকত টেকনাফে ট্রাকের ধাক্কায় খাদে অটোরিকশা, চালকসহ নিহত ২ নারীর নিরাপত্তা, অধিকার,ক্ষমতায়ন নিশ্চিতের ডাক রোকেয়া দিবসে: পুরস্কৃত হলো জেলার ৪ নারী চলতি সপ্তাহে তফসিল: সিইসি উখিয়া উপজেলা পর্যায়ে শ্রেষ্ঠ ‘অদম্য নারী’ কামরুন তানিয়া রাজনৈতিক সদিচ্ছা থাকলে দুর্নীতি কমবে : অর্থ উপদেষ্টা  রোকেয়া দিবস আজ ডিসি’র ছবি ব্যবহার করে প্রতারণা, জেলা প্রশাসনের সতর্কতা জারি ৪ নারীর হাতে বেগম রোকেয়া পদক তুলে দিলেন প্রধান উপদেষ্টা অপরিবর্তিত খালেদা জিয়ার শারীরিক অবস্থা, দেশেই চলবে চিকিৎসা পুতিনের ভারত সফর : এনার্জি বাণিজ্যের আড়ালে নতুন বৈশ্বিক শক্তির সমীকরণ ৭দিন ধরে নিখোঁজ চকরিয়ার তানভীর সাংবাদিকতা ও ওকালতি পেশায় যুক্ত হতে পারবেন না এমপিওভুক্ত শিক্ষকরা মহেশখালীতে অবৈধ বালু ভর্তি ৩ টি ডাম্পার জব্দ, লাখ টাকা জরিমানা মায়ানমারে পাচারকালে সিমেন্ট ও ময়দাসহ ৭ পাচারকারী আটক

বিশ্বাস ও তথ্যের পার্থক্য ‘বুঝতে পারে না’ চ্যাটজিপিটি: গবেষণা

চ্যাটজিপিটির মতো বিভিন্ন কৃত্রিম বুদ্ধিমত্তা বা এআই টুল বিশ্বাস আর তথ্যের মধ্যে পার্থক্য করতে সমস্যায় পড়ে বলে উঠে এসেছে নতুন এক গবেষণায়।

যুক্তরাষ্ট্রের ‘স্ট্যানফোর্ড ইউনিভার্সিটি’র গবেষণা দলটি বলছে, বড় ধরনের সব এআই চ্যাটবটই বুঝতে পারে না কোনটা সত্য তথ্য আর কোনটা কেবল মানুষের বিশ্বাস বা ধারণা। ফলে এসব চ্যাটবটের মাধ্যমে ভুল তথ্য বা ভ্রান্ত ধারণা ছড়িয়ে পড়ার ঝুঁকি রয়েছে।

এ গবেষণার ফলাফল নিয়ে উদ্বেগের কারণ হচ্ছে, যেখানে সত্য আর মিথ্যা তথ্য আলাদা করার বিষয়টি গুরুত্বপূর্ণ, সেখানে লার্জ ল্যাঙ্গুয়েজ মডেল বা এআইয়ের ব্যবহার ঝুঁকিপূর্ণ হতে পারে বলে প্রতিবেদনে লিখেছে ব্রিটিশ দৈনিক ইন্ডিপেনডেন্ট।

গবেষকরা বলেছেন, “বিভিন্ন এআই চ্যাটবট যখন আইন, চিকিৎসা, সাংবাদিকতা আর বিজ্ঞানের মতো গুরুত্বপূর্ণ ক্ষেত্রে ব্যবহৃত হচ্ছে তখন এদের পক্ষে বিশ্বাস আর জ্ঞান ও সত্য আর কল্পনার মধ্যে পার্থক্য করতে পারা খুবই জরুরি হয়ে পড়েছে।

“এমন পার্থক্য করতে না পারলে তা রোগ নির্ণয়ে ভুল, বিচারিক সিদ্ধান্তের ওপর প্রভাব এবং আরও বেশি পরিমাণে ভুল তথ্য ছড়িয়ে দিতে পারে এআই।”

এ গবেষণায় ক্লড, চ্যাটজিপিটি, ডিপসিক ও জেমিনাই’সহ মোট ২৪টি লার্জ ল্যাঙ্গুয়েজ মডেল নিয়ে পরীক্ষা করেছেন গবেষকরা। এসব মডেল কতটা ভালোভাবে বিশ্বাস, জ্ঞান ও বাস্তব তথ্যের মধ্যে পার্থক্য করতে পারে তা পরীক্ষা করতে প্রায় ১৩ হাজারটি প্রশ্ন ব্যবহার করেছেন তারা।

পরীক্ষিত সকল মডেলই বিশ্বাস বা ভুল বিবৃতি শনাক্ত করতে পারেনি। এর থেকে ইঙ্গিত মেলে, এসব মডেলের মধ্যে জ্ঞানকে সত্যের সঙ্গে সঠিকভাবে যোগ করার সক্ষমতায় মৌলিক সীমাবদ্ধতা রয়েছে।

গবেষণায় অংশ না নেওয়া মাদ্রিদের ‘অটোনোমাস ইউনিভার্সিটি’র কম্পিউটার ভাষাতত্ত্ব গবেষণাগারের গবেষক পাবলো হায়া কোল বলেছেন, “গবেষণার এসব ফলাফল বিভিন্ন লার্জ ল্যাঙ্গুয়েজ মডেলের গাঠনিক দুর্বলতারই প্রকাশ, যেখানে কোনো বক্তব্য বা বিবৃতি কীভাবে উপস্থাপিত হয়েছে এর ওপর নির্ভর করে ব্যক্তিগত বিশ্বাস আর বস্তুনিষ্ঠ সত্যের মধ্যে পার্থক্য করতে সমস্যায় পড়ে এআই।

“এ ধরনের সীমাবদ্ধতা গুরুত্বপূর্ণ ক্ষেত্রে গুরুতর প্রভাব ফেলতে পারে। যেমন– আইন, চিকিৎসা বা সাংবাদিকতার মতো বিষয়ে, যেখানে বিশ্বাসকে জ্ঞানের সঙ্গে বিভ্রান্ত করলে গুরুতর ভুল সিদ্ধান্ত নেওয়া হতে পারে।”

ড. কোল বলেছেন, এ সীমাবদ্ধতার সমাধান হতে পারে উত্তর দেওয়ার ক্ষেত্রে আরও সাবধানতা অবলম্বনের প্রশিক্ষণ দিতে হবে এসব মডেলকে। এতে ভুল বা বানানো তথ্য দেওয়ার আশঙ্কা কমবে, তবে, মডেলের ব্যবহারিক উপকারিতা কিছুটা প্রভাবিত হতে পারে।

স্ট্যানফোর্ডের গবেষকরা এআই টুল তৈরি বিভিন্ন প্রযুক্তি কোম্পানিকে অনুরোধ করেছেন, গুরুত্বপূর্ণ ক্ষেত্রে এআই মডেলের ব্যবহার হওয়ার আগেই এগুলোকে ‘দ্রুত’ উন্নত করা প্রয়োজন।

‘ল্যাঙ্গুয়েজ মডেলস কান্ট রিলাইবিলি ডিস্টিনগুইজ বিলিফ ফ্রম নলেজ অ্যান্ড ফ্যাক্ট’ শিরোনামে গবেষণািটি প্রকাশ পেয়েছে বিজ্ঞানভিত্তিক জার্নাল ‘নেচার মেশিন ইন্টেলিজেন্স’-এ।

সূত্র: বিডিনিউজ টোয়েন্টিফোর

ট্যাগ :
জনপ্রিয় সংবাদ

This will close in 6 seconds

বিশ্বাস ও তথ্যের পার্থক্য ‘বুঝতে পারে না’ চ্যাটজিপিটি: গবেষণা

আপডেট সময় : ০৩:৪০:৪৬ অপরাহ্ন, শুক্রবার, ৭ নভেম্বর ২০২৫

চ্যাটজিপিটির মতো বিভিন্ন কৃত্রিম বুদ্ধিমত্তা বা এআই টুল বিশ্বাস আর তথ্যের মধ্যে পার্থক্য করতে সমস্যায় পড়ে বলে উঠে এসেছে নতুন এক গবেষণায়।

যুক্তরাষ্ট্রের ‘স্ট্যানফোর্ড ইউনিভার্সিটি’র গবেষণা দলটি বলছে, বড় ধরনের সব এআই চ্যাটবটই বুঝতে পারে না কোনটা সত্য তথ্য আর কোনটা কেবল মানুষের বিশ্বাস বা ধারণা। ফলে এসব চ্যাটবটের মাধ্যমে ভুল তথ্য বা ভ্রান্ত ধারণা ছড়িয়ে পড়ার ঝুঁকি রয়েছে।

এ গবেষণার ফলাফল নিয়ে উদ্বেগের কারণ হচ্ছে, যেখানে সত্য আর মিথ্যা তথ্য আলাদা করার বিষয়টি গুরুত্বপূর্ণ, সেখানে লার্জ ল্যাঙ্গুয়েজ মডেল বা এআইয়ের ব্যবহার ঝুঁকিপূর্ণ হতে পারে বলে প্রতিবেদনে লিখেছে ব্রিটিশ দৈনিক ইন্ডিপেনডেন্ট।

গবেষকরা বলেছেন, “বিভিন্ন এআই চ্যাটবট যখন আইন, চিকিৎসা, সাংবাদিকতা আর বিজ্ঞানের মতো গুরুত্বপূর্ণ ক্ষেত্রে ব্যবহৃত হচ্ছে তখন এদের পক্ষে বিশ্বাস আর জ্ঞান ও সত্য আর কল্পনার মধ্যে পার্থক্য করতে পারা খুবই জরুরি হয়ে পড়েছে।

“এমন পার্থক্য করতে না পারলে তা রোগ নির্ণয়ে ভুল, বিচারিক সিদ্ধান্তের ওপর প্রভাব এবং আরও বেশি পরিমাণে ভুল তথ্য ছড়িয়ে দিতে পারে এআই।”

এ গবেষণায় ক্লড, চ্যাটজিপিটি, ডিপসিক ও জেমিনাই’সহ মোট ২৪টি লার্জ ল্যাঙ্গুয়েজ মডেল নিয়ে পরীক্ষা করেছেন গবেষকরা। এসব মডেল কতটা ভালোভাবে বিশ্বাস, জ্ঞান ও বাস্তব তথ্যের মধ্যে পার্থক্য করতে পারে তা পরীক্ষা করতে প্রায় ১৩ হাজারটি প্রশ্ন ব্যবহার করেছেন তারা।

পরীক্ষিত সকল মডেলই বিশ্বাস বা ভুল বিবৃতি শনাক্ত করতে পারেনি। এর থেকে ইঙ্গিত মেলে, এসব মডেলের মধ্যে জ্ঞানকে সত্যের সঙ্গে সঠিকভাবে যোগ করার সক্ষমতায় মৌলিক সীমাবদ্ধতা রয়েছে।

গবেষণায় অংশ না নেওয়া মাদ্রিদের ‘অটোনোমাস ইউনিভার্সিটি’র কম্পিউটার ভাষাতত্ত্ব গবেষণাগারের গবেষক পাবলো হায়া কোল বলেছেন, “গবেষণার এসব ফলাফল বিভিন্ন লার্জ ল্যাঙ্গুয়েজ মডেলের গাঠনিক দুর্বলতারই প্রকাশ, যেখানে কোনো বক্তব্য বা বিবৃতি কীভাবে উপস্থাপিত হয়েছে এর ওপর নির্ভর করে ব্যক্তিগত বিশ্বাস আর বস্তুনিষ্ঠ সত্যের মধ্যে পার্থক্য করতে সমস্যায় পড়ে এআই।

“এ ধরনের সীমাবদ্ধতা গুরুত্বপূর্ণ ক্ষেত্রে গুরুতর প্রভাব ফেলতে পারে। যেমন– আইন, চিকিৎসা বা সাংবাদিকতার মতো বিষয়ে, যেখানে বিশ্বাসকে জ্ঞানের সঙ্গে বিভ্রান্ত করলে গুরুতর ভুল সিদ্ধান্ত নেওয়া হতে পারে।”

ড. কোল বলেছেন, এ সীমাবদ্ধতার সমাধান হতে পারে উত্তর দেওয়ার ক্ষেত্রে আরও সাবধানতা অবলম্বনের প্রশিক্ষণ দিতে হবে এসব মডেলকে। এতে ভুল বা বানানো তথ্য দেওয়ার আশঙ্কা কমবে, তবে, মডেলের ব্যবহারিক উপকারিতা কিছুটা প্রভাবিত হতে পারে।

স্ট্যানফোর্ডের গবেষকরা এআই টুল তৈরি বিভিন্ন প্রযুক্তি কোম্পানিকে অনুরোধ করেছেন, গুরুত্বপূর্ণ ক্ষেত্রে এআই মডেলের ব্যবহার হওয়ার আগেই এগুলোকে ‘দ্রুত’ উন্নত করা প্রয়োজন।

‘ল্যাঙ্গুয়েজ মডেলস কান্ট রিলাইবিলি ডিস্টিনগুইজ বিলিফ ফ্রম নলেজ অ্যান্ড ফ্যাক্ট’ শিরোনামে গবেষণািটি প্রকাশ পেয়েছে বিজ্ঞানভিত্তিক জার্নাল ‘নেচার মেশিন ইন্টেলিজেন্স’-এ।

সূত্র: বিডিনিউজ টোয়েন্টিফোর