এআই ভাল উদ্দেশ্য খারাপ ফলাফল হতে পারে
এআই ভাল উদ্দেশ্য খারাপ ফলাফল হতে পারে
এআই জাদু নয় । যা কিছু "ভাল বিচার" বলে মনে হয় তা
হল প্যাটার্ন স্বীকৃতি বা নিরাপত্তা জাল যারা এটি প্রোগ্রাম করেছে তাদের দ্বারা
এটিতে তৈরি করা হয়েছে, কারণ AI একজন
ব্যক্তি নয়, এটি একটি প্যাটার্ন খুঁজে
পাওয়া জিনিস-লেবেলার । আপনি
যখন একটি AI সমাধান তৈরি করেন, সর্বদা মনে
রাখবেন যে এটি আপনার লঞ্চ পরীক্ষায় উত্তীর্ণ হলে ,
আপনি
যা চেয়েছেন তা পাবেন, আপনি যা চেয়েছিলেন তা
নয় । AI সিস্টেমগুলিকে আমরা তাদের খাওয়ানো উদাহরণগুলির সম্পূর্ণরূপে
প্যাটার্ন থেকে তৈরি করা হয় এবং আমরা তাদের যে আচরণগুলির জন্য
অপ্টিমাইজ করতে বলি সেগুলির জন্য তারা অপ্টিমাইজ করে৷
এআই একজন ব্যক্তি নয়, এটি
একটি প্যাটার্ন-ফাইন্ডিং জিনিস-লেবেলার।
সুতরাং
সিস্টেমটি আপনার ডেটাতে বসে থাকা নিদর্শনগুলি ব্যবহার করলে অবাক হবেন না। এমনকি যদি আপনি তাদের আড়াল করার জন্য যথাসাধ্য চেষ্টা
করেন...
নীতি
স্তর এবং নির্ভরযোগ্যতা
আপনি
যদি AI সুরক্ষার
বিষয়ে যত্নশীল হন, আপনি
জোর দেবেন যে প্রতিটি AI-ভিত্তিক
সিস্টেমের উপরে নীতি স্তরগুলি তৈরি করা উচিত। নীতির
স্তরগুলিকে মানুষের শিষ্টাচারের AI সংস্করণ
হিসাবে ভাবুন৷
পলিসি লেয়ার হল মানুষের শিষ্টাচারের সমতুল্য AI।
আমি বেশ কয়েকটি ভাষা জুড়ে কিছু খুব তীক্ষ্ণ
শব্দ সম্পর্কে সচেতন , কিন্তু আপনি আমাকে জনসমক্ষে সেগুলি
উচ্চারণ করতে শুনতে পাচ্ছেন না। এর কারণ নয় যে তারা আমার কাছে ঘটতে
ব্যর্থ হয়। কারণ আমি নিজেকে ফিল্টার
করছি । সমাজ আমাকে ভাল (ইশ) শিষ্টাচার শিখিয়েছে। সৌভাগ্যবশত
আমাদের সকলের জন্য AI এর জন্য একটি সমতুল্য সমাধান রয়েছে …
ঠিক
এটাই নীতির স্তরগুলি। একটি নীতি স্তর হল যুক্তির একটি পৃথক
স্তর যা ML/AI সিস্টেমের উপরে বসে । এটি
একটি AI নিরাপত্তা নেট থাকা আবশ্যক যা আউটপুট পরীক্ষা
করে, এটি ফিল্টার করে এবং এটির সাথে কী করতে হবে তা নির্ধারণ করে৷
আমার আগের নিবন্ধে ,
নীতি
স্তরগুলি (এবং ব্যাটম্যান) AI সিস্টেমের নির্ভরযোগ্যতা কেন্দ্রিক
আলোচনার নায়ক ছিল । এগুলি
হল আপনার এবং অদৃশ্য ত্রুটিগুলির মধ্যে প্রতিরক্ষার একটি সাধারণ প্রথম লাইন... এবং
তারা আপনাকে ভুলের মুখোমুখি হওয়ার সময় তুলনামূলকভাবে দ্রুত প্রতিক্রিয়া দেওয়ার
জন্য (একটি জটিল সিস্টেমকে ভাঙা বা পুনরায় প্রশিক্ষণ
না দিয়ে! ) সংশোধন
করা যথেষ্ট সহজ হওয়ার অতিরিক্ত বোনাস নিয়ে আসে। তুমি আসতে দেখোনি
।