যুক্তরাজ্যের আদালত ও ট্রাইব্যুনালে বিচারকদের কৃত্রিম বুদ্ধিমত্তা (AI) ব্যবহারের বিষয়ে নতুন ও হালনাগাদ নির্দেশনা জারি করেছে Courts and Tribunals Judiciary। এই নির্দেশনা এপ্রিল ২০২৫ সালের পূর্ববর্তী গাইডলাইন বাতিল করে নতুন কাঠামো নির্ধারণ করেছে, যেখানে AI ব্যবহারের সীমা, ঝুঁকি, দায়বদ্ধতা ও গোপনীয়তার নীতিমালা বিস্তারিতভাবে বর্ণনা করা হয়েছে। মূল লক্ষ্য—বিচার ব্যবস্থার অখণ্ডতা ও জনগণের আস্থা সুরক্ষিত রাখা।
নতুন গাইডলাইন অনুযায়ী, কোনো বিচারক বা আদালতের সহকারী পাবলিক AI চ্যাটবটে ব্যক্তিগত বা গোপন তথ্য ইনপুট দিতে পারবেন না। এই ধরনের তথ্য প্রবেশ করালে তা জনসমক্ষে প্রকাশিত হওয়ার ঝুঁকি থাকে, কারণ অধিকাংশ AI প্ল্যাটফর্ম ব্যবহারকারীর ইনপুট সংরক্ষণ করে এবং তা ভবিষ্যতে অন্যান্য ব্যবহারকারীর প্রশ্নের উত্তরে ব্যবহার করতে পারে।
বিচারকদের নির্দেশ দেওয়া হয়েছে যেন তারা ChatGPT বা Google Gemini-এর মতো চ্যাটবটে চ্যাট হিস্টরি বন্ধ রাখেন, এবং অফিসিয়াল ডিভাইস ছাড়া কোনো অবস্থায় AI ব্যবহার না করেন। তথ্য ফাঁস হলে তাৎক্ষণিকভাবে Judicial Office ও নেতৃত্বস্থানীয় বিচারককে জানাতে হবে এবং ডেটা ব্রিচ রিপোর্ট দাখিল করতে হবে।
নির্দেশনায় বলা হয়েছে, AI-উৎপন্ন তথ্য সরাসরি আদালতের কাজে ব্যবহার করা যাবে না যতক্ষণ না তা যাচাই করা হয়। কারণ জেনারেটিভ AI প্রায়ই ভুল, কাল্পনিক বা বিভ্রান্তিকর তথ্য তৈরি করতে পারে, যেমন অস্তিত্বহীন মামলা, আইন বা উদ্ধৃতি।
এছাড়া বিচারকদের সতর্ক করা হয়েছে যে বর্তমান LLM (Large Language Model) মডেলগুলো মূলত যুক্তরাষ্ট্রের আইনি তথ্যের উপর প্রশিক্ষিত; তাই “ইংল্যান্ড ও ওয়েলসের আইন” সম্পর্কিত তথ্য অনেক সময় ভুল হতে পারে। এজন্য AI থেকে প্রাপ্ত যেকোনো আইনি বিশ্লেষণ বা রেফারেন্সকে প্রাথমিক, অসমর্থিত তথ্য হিসেবে বিবেচনা করার পরামর্শ দেওয়া হয়েছে।
AI মডেলগুলোর ডেটায় থাকা পক্ষপাত বা বিকৃতি আদালতের সিদ্ধান্তে প্রভাব ফেলতে পারে—এই আশঙ্কা উল্লেখ করে বিচারকদের পক্ষপাত সনাক্তে Equal Treatment Bench Book অনুসরণের আহ্বান জানানো হয়েছে।
এছাড়া নির্দেশিকায় বলা হয়েছে, AI এখন ভুয়া টেক্সট, ছবি ও ভিডিও তৈরি করতে পারে (Deepfake)। আদালত ও ট্রাইব্যুনালকে এ ধরনের উপকরণ সনাক্তে আরও সতর্ক হতে বলা হয়েছে। এমনকি “white text” বা গোপন প্রম্পট লুকিয়ে রাখা ফাইলও একটি নতুন ধরনের ডিজিটাল প্রতারণা হিসেবে চিহ্নিত করা হয়েছে।
বিচারকদের স্মরণ করিয়ে দেওয়া হয়েছে যে AI কোনোভাবেই তাদের নিজস্ব বিচারিক দায়িত্বের বিকল্প নয়। AI কেবল সহায়ক টুল হিসেবে ব্যবহার করা যেতে পারে — যেমন দলিল সারসংক্ষেপ তৈরি, উপস্থাপনার কাঠামো প্রস্তাবনা বা প্রশাসনিক কাজ সহজ করা।
তবে আইন গবেষণা বা বিশ্লেষণের ক্ষেত্রে AI ব্যবহারের সুপারিশ করা হয়নি। আদালতকে সতর্ক করা হয়েছে যে আইনি প্রতিনিধিরা বা স্ব-প্রতিনিধিত্বকারী (unrepresented) পক্ষেরা যদি AI থেকে পাওয়া তথ্য ব্যবহার করেন, তাহলে তাদের কাছে উৎস যাচাইয়ের প্রমাণ চাওয়া যেতে পারে।
বিচার বিভাগ স্বীকার করেছে যে প্রযুক্তির অগ্রগতির সঙ্গে সঙ্গে AI-এর ভূমিকা অনিবার্য হয়ে উঠেছে। তবে আদালতের ন্যায়বিচার, তথ্যের নিরাপত্তা এবং জনগণের আস্থা রক্ষায় এর ব্যবহারকে সীমাবদ্ধ, স্বচ্ছ ও নীতিনিষ্ঠ রাখাই হবে বিচারকদের প্রধান দায়িত্ব।
নতুন এই নীতিমালা বিচার ব্যবস্থায় একটি যুগান্তকারী পরিবর্তনের ইঙ্গিত দিলেও এর মূল বার্তা স্পষ্ট — “AI হতে পারে সহায়ক হাত, কিন্তু কখনোই বিচারকের মস্তিষ্কের বিকল্প নয়।”
সূত্রঃ কোর্ট এণ্ড ট্রাইবুনাল জুডিশিয়ারি
এম.কে

