বিশিষ্ট এআই নীতিবিদদের একটি দল এই সপ্তাহের বিতর্কিত চিঠির বিরুদ্ধে একটি খণ্ডন লিখেছে যাতে এআই বিকাশে ছয় মাসের “বিরতি” করার আহ্বান জানানো হয়েছে, প্রযুক্তির বর্তমান অপব্যবহারের ফলে প্রকৃত ক্ষতির কারণে অনুমানমূলক ভবিষ্যতের হুমকির দিকে মনোনিবেশ করার জন্য এর সমালোচনা করা হয়েছে। .

স্টিভ ওজনিয়াক এবং ইলন মাস্কের মতো পরিবারের নাম সহ হাজার হাজার মানুষ এই সপ্তাহের শুরুতে ফিউচার অফ লাইফ ইনস্টিটিউট থেকে একটি খোলা চিঠিতে স্বাক্ষর করেছেন যাতে পরামর্শ দেওয়া হয় যে “ক্ষতি” এড়াতে GPT-4 এর মতো AI মডেলগুলির বিকাশ বিলম্বিত করা হবে৷ আমাদের সভ্যতার নিয়ন্ত্রণ,” অন্যান্য হুমকির মধ্যে।

টিমনিট গেব্রু, এমিলি এম. বেন্ডার, অ্যাঞ্জেলিনা ম্যাকমিলান-মেজর এবং মার্গারেট মিচেল হলেন AI এবং নীতিশাস্ত্রের ক্ষেত্রে বিশিষ্ট ব্যক্তিত্ব, যাঁরা AI এর ক্ষমতার সমালোচনামূলক একটি পেপারের জন্য Google থেকে বহিষ্কৃত হওয়ার জন্য পরিচিত (তাদের কাজ ছাড়াও)। তারা বর্তমানে DAIR ইনস্টিটিউটে একসাথে কাজ করছে, একটি নতুন গবেষণা ইউনিট যার লক্ষ্য AI-সম্পর্কিত ক্ষতি অধ্যয়ন করা এবং উন্মোচন করা এবং প্রতিরোধ করা।

কিন্তু স্বাক্ষরকারীদের তালিকায় তাদের কোথাও খুঁজে পাওয়া যায়নি, এবং এখন প্রযুক্তির কারণে বিদ্যমান সমস্যাগুলি সমাধানে চিঠির ব্যর্থতার আহ্বান জানিয়ে একটি তিরস্কার জারি করেছে।

“এই কাল্পনিক ঝুঁকিগুলি দীর্ঘমেয়াদীবাদ নামক একটি বিপজ্জনক মতাদর্শের কেন্দ্রে রয়েছে, যা আজ এআই সিস্টেম স্থাপনের প্রকৃত ক্ষতিগুলিকে উপেক্ষা করে,” তারা কর্মী শোষণ, ডেটা চুরি, বিদ্যমান শক্তি কাঠামোকে সমর্থনকারী সিন্থেটিক মিডিয়া এবং আরও ফোকাস উল্লেখ করে লিখেছেন। কম হাতে যারা ক্ষমতা কাঠামো.

একটি টার্মিনেটর বা ম্যাট্রিক্স-স্টাইলের রোবট অ্যাপোক্যালিপস সম্পর্কে চিন্তা করা বেছে নেওয়া একটি লাল হেরিং হয় যখন আমাদের কাছে ক্লিয়ারভিউ এআই-এর মতো সংস্থাগুলি পুলিশের দ্বারা একজন নির্দোষ মানুষকে ফ্রেম করার জন্য ব্যবহার করা হয়েছে বলে প্রতিবেদন পাওয়া যায়। অনলাইন রাবার স্ট্যাম্প ওয়ারেন্টি কারখানার মাধ্যমে প্রতিটি সদর দরজায় টায়ার ক্যামেরা অ্যাক্সেসযোগ্য হলে T-1000-এর প্রয়োজন নেই।

যদিও DAIR ক্রু চিঠির কিছু লক্ষ্যের সাথে একমত, যেমন সিন্থেটিক এজেন্ট শনাক্ত করা, তারা জোর দেয় যে আজকের সমস্যাগুলি আমাদের এখন যে উপায়ে আছে তা দিয়ে সমাধান করা উচিত:

আমাদের এমন প্রবিধান দরকার যা স্বচ্ছতা বাড়ায়। আমরা যখন সিন্থেটিক মিডিয়ার মুখোমুখি হই তখনই কেবল এটি পরিষ্কার হওয়া উচিত নয়, তবে এই সিস্টেমগুলি তৈরিকারী সংস্থাগুলিকে প্রশিক্ষণের ডেটা এবং মডেল আর্কিটেকচারগুলি নথিভুক্ত এবং প্রকাশ করতে হবে। নিরাপদ-থেকে-ব্যবহারের সরঞ্জাম তৈরি করার ভার সেই সংস্থাগুলির উপর থাকা উচিত যারা জেনারেটিভ সিস্টেমগুলি তৈরি করে এবং প্রয়োগ করে, যার অর্থ এই সিস্টেমগুলির নির্মাতাদের তাদের পণ্যগুলির ফলাফলের জন্য দায়বদ্ধ হতে হবে।

সর্বকালের বৃহত্তর “এআই পরীক্ষাগুলির” বিরুদ্ধে বর্তমান দৌড় একটি পূর্বনির্ধারিত পথ নয় যেখানে আমাদের একমাত্র পছন্দ কত দ্রুত দৌড়াতে হবে, বরং লাভ-চালিত সিদ্ধান্তগুলির একটি সিরিজ। কোম্পানীর ক্রিয়াকলাপ এবং পছন্দগুলি অবশ্যই আইন দ্বারা তৈরি করা উচিত যা জনগণের অধিকার এবং স্বার্থ রক্ষা করে।

এটি আসলেই কাজ করার সময়, কিন্তু আমাদের উদ্বেগ কাল্পনিক “শক্তিশালী ডিজিটাল মন” নিয়ে হওয়া উচিত নয়। পরিবর্তে, আমাদের সেই কোম্পানিগুলির খুব বাস্তব এবং খুব বর্তমান শোষণমূলক অনুশীলনের উপর ফোকাস করা উচিত যারা তাদের নির্মাণের দাবি করে, যা দ্রুত শক্তিকে কেন্দ্রীভূত করছে এবং সামাজিক বৈষম্য বৃদ্ধি করছে।

যাইহোক, এই চিঠিটি এমন একটি অনুভূতির প্রতিধ্বনি করে যা আমি সিয়াটলে গতকালের আফ্রোটেক ইভেন্টে আনচার্টেড পাওয়ারের প্রতিষ্ঠাতা জেসিকা ম্যাথিউসের কাছ থেকে শুনেছিলাম: “কৃত্রিম বুদ্ধিমত্তাকে ভয় করা উচিত নয়। যারা এটি নির্মাণ করে তাদের ভয় করা উচিত।” (তার সমাধান: এর নির্মাতা হয়ে উঠুন।)

যদিও এটি অত্যন্ত অসম্ভাব্য যে কোনও বড় কোম্পানি কখনও খোলা চিঠি অনুসারে তার গবেষণা স্থগিত করতে রাজি হবে, এটি যে ম্যান্ডেট পেয়েছে তা থেকে এটি স্পষ্ট যে কৃত্রিম বুদ্ধিমত্তার ঝুঁকি – বাস্তব এবং অনুমানিক – সমাজে অনেকের জন্য একটি প্রধান উদ্বেগ। কিন্তু যদি তারা তা না করে, তাহলে হয়তো কাউকে তাদের জন্য এটা করতে হবে।

By admin