একজন হাইকোর্ট বিচারক বিশেষজ্ঞ সাক্ষী ও আইনজীবীদের উদ্দেশে কৃত্রিম বুদ্ধিমত্তা (AI) ব্যবহারের বিষয়ে কঠোর সতর্কবার্তা দিয়েছেন। তিনি বলেছেন, কোনো সলিসিটর যদি আদালতের মামলার জন্য কৃত্রিম বুদ্ধিমত্তায় তৈরি বিশেষজ্ঞ প্রতিবেদন ব্যবহারে জোর দেন, তবে তা তার পেশাগত দায়িত্বের গুরুতর লঙ্ঘন হিসেবে গণ্য হবে।
এই সতর্কতা আসে বন্ড সোলন এক্সপার্ট উইটনেস সার্ভে ২০২৫–এর প্রকাশের পর, যা ল’ গেজেট-এর সঙ্গে যৌথভাবে প্রস্তুত করা হয়েছে। জরিপে দেখা গেছে, এক বিশেষজ্ঞ সাক্ষীকে এক সলিসিটর এমন নির্দেশ গ্রহণ করতে বলেন, যেখানে তিনি মামলার জন্য AI-নির্ভর একটি খসড়া বিশেষজ্ঞ প্রতিবেদন দিতে চান।
বিচারপতি ওয়াক্সম্যান, যিনি কনস্ট্রাকশন অ্যান্ড টেকনোলজি কোর্টের প্রধান, গত শুক্রবার বন্ড সোলন এক্সপার্ট উইটনেস সম্মেলনে বলেন, “আমার মতে এটি সেই সলিসিটরের দায়িত্বের একটি চরম লঙ্ঘন।” তিনি জানান, এটি পেশাদার নৈতিকতার সঙ্গে অসঙ্গত এবং বিশেষজ্ঞ সাক্ষ্যের বিশ্বাসযোগ্যতাকে ক্ষতিগ্রস্ত করতে পারে।
জরিপে আরও দেখা গেছে, প্রায় ১৪ শতাংশ বিশেষজ্ঞ সাক্ষী এমন নির্দেশ গ্রহণে আগ্রহী বলে জানিয়েছেন। এ বিষয়ে উদ্বেগ প্রকাশ করে বিচারপতি ওয়াক্সম্যান বলেন, “আমি বুঝতে পারি না কীভাবে এটি গ্রহণযোগ্য আচরণ হতে পারে— এমনকি যদি তারা কেবল সলিসিটরের সঙ্গে বিরোধ এড়াতে চান এবং পরে খসড়াটি বাদ দেওয়ার ইচ্ছা রাখেন, তবুও এটি পেশাগতভাবে অনুচিত।”
তিনি জানান, এই প্রতিবেদনটি প্রকাশের সময় যথার্থ, কারণ বিচারকদের সম্প্রতি কৃত্রিম বুদ্ধিমত্তা ব্যবহারের বিষয়ে হালনাগাদ নির্দেশিকা দেওয়া হয়েছে। সম্মেলনে জানানো হয়, বিচারকদের জন্য এখন ChatGPT 365-এর একটি ব্যক্তিগত সংস্করণ রয়েছে, যা সাধারণের জন্য উন্মুক্ত নয়। ওয়াক্সম্যান বলেন, “আমরা যদি বিশেষজ্ঞ প্রতিবেদন সংক্ষেপে বুঝতে AI ব্যবহার করি, তাহলে তথ্য ফাঁসের আশঙ্কা থাকে না।”
তবে বিচারকদের এই ব্যবহারের বিষয়টি প্রকাশ করার বাধ্যবাধকতা নেই, কারণ এটি বিচারক সহকারীর সহায়তার মতো হিসেবেই বিবেচিত হয়। তবুও ওয়াক্সম্যান স্পষ্ট করে বলেন, “চূড়ান্ত রায় অবশ্যই বিচারকের নিজের হতে হবে, কোনো কৃত্রিম বুদ্ধিমত্তা ব্যবস্থার নয়।”
বিচারপতি ওয়াক্সম্যান সতর্ক করেন যে আইনি গবেষণা বা বিশ্লেষণের ক্ষেত্রে AI ব্যবহার অত্যন্ত ঝুঁকিপূর্ণ। “হ্যালুসিনেশন”—অর্থাৎ ভুল বা কল্পিত তথ্য তৈরি—এর ঝুঁকি থেকে অনেক মামলায় ইতোমধ্যেই ভুয়া আইনি নজির উদ্ধৃত হয়েছে। তিনি বলেন, “বিশেষজ্ঞদের উচিত AI থেকে দূরে থাকা, বিশেষ করে যখন প্রশ্নগুলোর উত্তর দেওয়ার দায়িত্ব তাদের নিজেদের। AI-র ওপর নির্ভরতা মানে নিজের স্বাধীনতা ও নিরপেক্ষতা বিসর্জন দেওয়া।”
সূত্রঃ দ্য ল’ গ্যাজেট
এম.কে

