11-12 তারিখে সান ফ্রান্সিসকোর শীর্ষ নেতাদের সাথে যোগ দিন। জুলাই এবং শুনুন কিভাবে নেতারা সাফল্যের জন্য AI বিনিয়োগকে একীভূত ও অপ্টিমাইজ করছে. অধিক তথ্য


OpenAI-এর GPT-4 এর বাইরে বৃহৎ আকারের AI উন্নয়নে ছয় মাসের জন্য “বিরতি” করার আহ্বান জানানো একটি নতুন খোলা চিঠি জটিল বিতর্ক এবং দ্রুত বর্ধমান উত্তপ্ত বিতর্ক এআই-এর বিভিন্ন পেট-মন্থন ঝুঁকি, স্বল্প- এবং দীর্ঘমেয়াদী উভয়েরই উপর জোর দেয়। মেয়াদ

চিঠির সমালোচকরা – ইলন মাস্ক, স্টিভ ওজনিয়াক, ইয়োশুয়া বেঙ্গিও, গ্যারি মার্কাস এবং আরও কয়েক হাজার এআই বিশেষজ্ঞ, গবেষক এবং শিল্প নেতাদের দ্বারা স্বাক্ষরিত – বলেছেন যে এটি অনুমানমূলক বিপদ সম্পর্কে অসহায় সতর্কতা উত্থাপন করে, যা আসল, বাস্তব সম্পর্কে ভুল তথ্য এবং বিভ্রান্তির দিকে পরিচালিত করে। . – বিশ্বের উদ্বেগ। অন্যরা “বিরতি” এর অবাস্তব প্রকৃতির কথা উল্লেখ করেছেন, বলেছেন যে চিঠিটি বিশ্বব্যাপী এআই নিয়ন্ত্রণ এবং আইন প্রণয়নের বর্তমান প্রচেষ্টার দিকে নজর দেয়নি।

চিঠিটি অলাভজনক ফিউচার অফ লাইফ ইনস্টিটিউট দ্বারা প্রকাশিত হয়েছিল, “শক্তিশালী প্রযুক্তির দ্বারা সৃষ্ট বিশ্বব্যাপী বিপর্যয় এবং অস্তিত্বের ঝুঁকি কমাতে” প্রতিষ্ঠিত হয়েছিল (প্রতিষ্ঠাতারা হলেন এমআইটি কসমোলজিস্ট ম্যাক্স টেগমার্ক, স্কাইপের প্রতিষ্ঠাতা জান ট্যালিন এবং ডিপমাইন্ড গবেষক ভিক্টোরিয়া ক্রাকভনা)। . চিঠিতে বলা হয়েছে যে “তথ্য এবং গণনা বৃদ্ধির মাধ্যমে, কৃত্রিম বুদ্ধিমত্তা সিস্টেমের ক্ষমতা দ্রুত বৃদ্ধি পাবে। বৃহত্তম মডেলগুলি ক্রমবর্ধমানভাবে অনেক ডোমেনে মানুষের কর্মক্ষমতাকে ছাড়িয়ে যেতে সক্ষম হবে। আমাদের সমাজের জন্য এর অর্থ কী হবে তা কোনো কোম্পানিই ভবিষ্যদ্বাণী করতে পারে না।”

চিঠিটি নির্দেশ করে যে সুপার ইন্টেলিজেন্স কোনভাবেই বড় AI মডেলের জন্য চিন্তা করার একমাত্র নেতিবাচক দিক নয় – ছদ্মবেশ এবং বিভ্রান্তির সম্ভাবনা। যাইহোক, এটি হাইলাইট করে যে অনেক বাণিজ্যিক ল্যাবের উল্লিখিত লক্ষ্য হল AGI (কৃত্রিম সাধারণ বুদ্ধিমত্তা) বিকাশ করা এবং যোগ করে যে কিছু গবেষক বিশ্বাস করেন যে আমরা AGI-এর নিরাপত্তা এবং নৈতিকতা নিয়ে উদ্বেগের সাথে AGI-এর কাছাকাছি।

ঘটনা

2023 পরিবর্তন করুন

11 এবং 12 তারিখে সান ফ্রান্সিসকোতে আমাদের সাথে যোগ দিন। জুলাই, যেখানে শীর্ষ নেতারা ভাগ করে নেন কীভাবে তারা তাদের AI বিনিয়োগগুলিকে সফল করতে এবং সাধারণ সমস্যাগুলি এড়াতে একীভূত এবং অপ্টিমাইজ করেছেন৷

এখন নিবন্ধন করুন

চিঠিতে বলা হয়েছে, “আমরা বিশ্বাস করি যে কার্যকর কৃত্রিম বুদ্ধিমত্তা সিস্টেমগুলি তখনই তৈরি করা উচিত যখন আমরা নিশ্চিত যে তাদের প্রভাবগুলি ইতিবাচক এবং তাদের ঝুঁকিগুলি পরিচালনাযোগ্য।”

চিঠিটি সম্পর্কে নিউ ইয়র্ক টাইমসের কেড মেটজের সাথে কথা বলার সময়, মার্কাস বলেছিলেন এটি গুরুত্বপূর্ণ কারণ “আমাদের মধ্যে কর্পোরেট দায়িত্বহীনতার নিখুঁত ঝড়, ব্যাপক গ্রহণ, নিয়ন্ত্রণের অভাব এবং বিপুল সংখ্যক অজানা রয়েছে।”

সমালোচকরা বলছেন চিঠি ‘আরও জ্বালানি এআই হাইপ’

চিঠির সমালোচকরা AGI-এর অনুমানমূলক দীর্ঘমেয়াদী বিপদ সম্পর্কে ক্রমাগত হাইপ হিসাবে যা দেখেছেন তা উপস্থাপন করেছেন নিকট-মেয়াদী ঝুঁকি যেমন কুসংস্কার এবং ভুল তথ্য ইতিমধ্যে ঘটছে।

অরবিন্দ নারায়ণন, প্রিন্সটনের কম্পিউটার বিজ্ঞানের অধ্যাপক, বলেছেন টুইটারে চিঠিটি “আরও এআই জেলিকে খাওয়ায় এবং ইতিমধ্যে ঘটছে এমন আসল এআই ক্ষতির বিরুদ্ধে লড়াই করা আরও কঠিন করে তোলে,” যোগ করে তিনি সন্দেহ করেছিলেন যে এটি “সমাজের পরিবর্তে সংস্থাগুলিকে নিয়ন্ত্রণ করার কথা বলে উপকৃত হবে।”

এবং ব্রুকিংস ইনস্টিটিউশনের গবেষক অ্যালেক্স এংলার টেক পলিসি প্রেসকে বলেছেন যে “এটি আরও বিশ্বাসযোগ্য এবং কার্যকর হবে যদি এর অনুমানমূলক অনুমানগুলি বৃহৎ মেশিন লার্নিং মডেলগুলির বাস্তবতায় যুক্তিসঙ্গতভাবে ভিত্তি করা হয়, যা তারা নয়, স্পয়লার,” যোগ করে। যে তিনি “দৃঢ়ভাবে সমর্থন করেন” স্বাধীন তৃতীয় পক্ষের অ্যাক্সেস এবং বড় ML মডেলের পরিদর্শন৷ “এটি কোম্পানির দাবি যাচাই করার জন্য একটি মূল পরিমাপ, নিরাপদ ব্যবহার সক্ষম করে এবং প্রকৃত নতুন হুমকি সনাক্ত করতে পারে।”

জোয়ানা ব্রাইসন, বার্লিনের হার্টি স্কুলের একজন অধ্যাপক যিনি কৃত্রিম বুদ্ধিমত্তা এবং নীতিশাস্ত্র নিয়ে কাজ করেন, চিঠিটিকে “আরও বিএস স্বাধীনতাবাদ” বলে অভিহিত করেছেন। টুইট করে যে “আমাদের নির্বিচারে এআইকে ধীর করার দরকার নেই, এআই পণ্যগুলি নিরাপদ। এর জন্য ভাল অনুশীলন এবং ডকুমেন্টেশন অনুসরণ করা প্রয়োজন, যার জন্য নিয়ন্ত্রণ এবং নিরীক্ষা প্রয়োজন।”

ইইউ-এর কৃত্রিম বুদ্ধিমত্তা আইনের কথা উল্লেখ করে তিনি আরও বলেন, “আমরা ইউরোপীয় আইন প্রণয়নের প্রক্রিয়ায় অনেক দূরে রয়েছি, যা এখানে স্বীকৃত নয়।” তিনি আরও যোগ করেছেন যে “আমি মনে করি না যে স্থগিতের জন্য এই অনুরোধের কোন অর্থ আছে। তারা যদি এটি চায় তবে কেন তারা ইন্টারনেট গভর্নেন্স ফোরাম বা ইউনেস্কোর মাধ্যমে কাজ করবে না?”

এমিলি এম. বেন্ডার, ওয়াশিংটন বিশ্ববিদ্যালয়ের ভাষাবিজ্ঞানের অধ্যাপক এবং “অন দ্য ডেঞ্জারস অফ স্টোকাস্টিক ফার্টস: ক্যান ল্যাঙ্গুয়েজ মডেলগুলি খুব বড় হতে পারে?” এর সহ-লেখক। আরও এগিয়ে গিয়ে, টুইট করে যে স্টকাস্টিক প্যারটস ম্যাগাজিন ঝুঁকির কথা বিবেচনা না করেই দীর্ঘ-বৃহত্তর ভাষার নিদর্শনগুলিতে একটি “মাথালং” ছুটে যাওয়ার কথা উল্লেখ করেছে।

“কিন্তু ঝুঁকি এবং ক্ষতিগুলি কখনই ‘অত্যধিক শক্তিশালী এআই’ সম্পর্কে ছিল না।” পরিবর্তে, “তারা মানুষের হাতে ক্ষমতা কেন্দ্রীকরণ, নিপীড়নমূলক ব্যবস্থার পুনর্নবীকরণ, তথ্য বাস্তুতন্ত্রের ক্ষতি এবং ক্ষতির কথা বলে। প্রাকৃতিক বাস্তুতন্ত্র (শক্তি সম্পদের অপব্যয় ব্যবহার)।”

সেই সমালোচনার জবাবে মার্কাস ড দেখিয়েছে টুইটারে আউট যদিও তিনি খোলা চিঠির প্রতিটি অংশের সাথে একমত ছিলেন না, তিনি “পরিপূর্ণতাকে ভালোর শত্রু হতে দেননি।” তিনি “এখনও সন্দেহবাদী,” তিনি বলেন, “যিনি মনে করেন যে বৃহৎ ভাষার মডেলগুলি অগভীর এবং AGI এর কাছাকাছি কোথাও নেই৷ কিন্তু তারা এখনও প্রকৃত ক্ষতি করতে পারে।” তিনি চিঠির “সাধারণ আত্মা” সমর্থন করেছিলেন এবং এটিকে প্রচার করেছিলেন “কারণ এটি এমন একটি কথোপকথন যা আমাদের অত্যন্ত প্রয়োজন”।

একটি খোলা চিঠি যা অন্যান্য মূলধারার মিডিয়া সতর্কতার সাথে সাদৃশ্যপূর্ণ

GPT-4 প্রকাশ যখন মূলধারার মিডিয়ার পৃষ্ঠা এবং পিক্সেলগুলিকে পূর্ণ করেছে, একই সময়ে মিডিয়াটি বৃহৎ আকারের AI বিকাশের ঝুঁকিগুলির উপর দৃষ্টি নিবদ্ধ করেছে – বিশেষ করে দীর্ঘমেয়াদে অনুমানমূলক সম্ভাবনার উপর।

2021-2022-এর জন্য বিডেন প্রশাসনের প্রাক্তন হোয়াইট হাউস এআই নীতি উপদেষ্টা সুরেশ ভেঙ্কটসুব্রমানিয়ান (যেখানে তিনি AI বিল অফ রাইটসের ব্লুপ্রিন্ট বিকাশে সহায়তা করেছিলেন) এবং কম্পিউটার বিজ্ঞানের অধ্যাপকের সাথে গতকাল একটি ভেঞ্চারবিট সাক্ষাত্কারের কেন্দ্রস্থলে এটি ছিল। ব্রাউন ইউনিভার্সিটি। .

নিবন্ধটি সেন ক্রিস মারফি (ডি-সিটি) এর প্রতি ভেঙ্কটসুব্রমানিয়ানের সমালোচনামূলক প্রতিক্রিয়ার বিশদ বিবরণ দিয়েছে টুইট ChatGPT এর, যা এআই সম্প্রদায়ের অনেক সদস্যের কাছ থেকে প্রতিক্রিয়া পেয়েছে। তিনি বলেন, নিউইয়র্ক টাইমস এবং অনুরূপ প্রকাশনাগুলির সাম্প্রতিক একটি অপ-এড সহ মারফির মন্তব্যগুলি “উৎপাদনশীল AI সিস্টেমগুলির চারপাশে ছড়িয়ে থাকা ভয়কে স্থায়ী করে যা খুব গঠনমূলক নয় এবং আমাদের এআই সিস্টেমগুলির সাথে প্রকৃত সমস্যাগুলির সাথে জড়িত হতে বাধা দেয় যা উৎপাদনশীল নয়।”

আমাদের উচিত “এআই ইতিমধ্যে যে অসুবিধাগুলি দেখেছে সেগুলির দিকে মনোনিবেশ করা এবং তারপর মহাবিশ্বে জেনারেটিভ এআইয়ের সম্ভাব্য দখল নিয়ে চিন্তা করা উচিত,” তিনি যোগ করেছেন।

VentureBeat এর মিশন রূপান্তরমূলক ব্যবসায়িক প্রযুক্তি সম্পর্কে জানতে এবং কাজ করার জন্য প্রযুক্তিগত সিদ্ধান্ত গ্রহণকারীদের জন্য একটি ডিজিটাল টাউন স্কোয়ার। আমাদের ঘোষণা দেখুন.

By admin