ក្រុមហ៊ុន AI កំពូលៗទាំង ៨ រួមមាន OpenAI, Meta, Anthropic និង DeepSeek មិនមានផែនការ គួរឱ្យទុកចិត្ត ដើម្បីទប់ស្កាត់ហានិភ័យ នៃគ្រោះមហន្តរាយ ដោយសារ AI នោះទេ, នេះបើយោងតាមការសិក្សាថ្មីមួយ។
យោងតាមការវាយតម្លៃថ្មីមួយ ដែលព្រមានថា កង្វះការយកចិត្តទុកដាក់នេះ អាចនាំឱ្យកើតមានមហន្តរាយដោយសារការខ្វះខាតការគ្រប់គ្រង AI ខណៈក្រុមហ៊ុនបញ្ញាសិប្បនិម្មិត (AI) ធំៗរបស់ពិភពលោក កំពុងបរាជ័យ ក្នុងការបំពេញកាតព្វកិច្ចសុវត្ថិភាពផ្ទាល់ខ្លួន។

របាយការណ៍សន្ទស្សន៍សុវត្ថិភាព AI រដូវរងាឆ្នាំ២០២៥ ដែលចេញផ្សាយដោយអង្គការមិនស្វែងប្រាក់ចំណេញ Future of Life Institute (FLI) បានវាយតម្លៃក្រុមហ៊ុន AI ធំៗចំនួនប្រាំបី រួមទាំងក្រុមហ៊ុនអាមេរិក Anthropic, OpenAI, Google DeepMind, xAI និង Meta និងក្រុមហ៊ុនចិន DeepSeek, Alibaba Cloud និង Z.ai។
របាយការណ៍នេះ ចេញផ្សាយពេលដែលក្រុមហ៊ុន AI ប្រឈមមុខនឹងបណ្ដឹង និងការចោទប្រកាន់ថា Chatbot របស់ពួកគេបង្កគ្រោះថ្នាក់ផ្លូវចិត្ត រួមទាំងចូលរួមចំណែកឱ្យយោបល់ពីវិធីសាស្ត្រធ្វើអត្តឃាត និងរបាយការណ៍អំពីការវាយប្រហារតាមអ៊ីនធឺណិត ដែលជួយដោយ AI ។
ជាលទ្ធផល ការស្រាវជ្រាវបានរកឃើញថា ក្រុមហ៊ុនទាំងអស់ខ្វះយុទ្ធសាស្ត្រគួរឱ្យទុកចិត្ត សម្រាប់ទប់ស្កាត់ ការប្រើប្រាស់បច្ចេកវិទ្យានេះមិនត្រឹមត្រូវ ឬការបាត់បង់សមត្ថភាពគ្រប់គ្រងបច្ចេកវិទ្យា AI ខណៈដែលក្រុមហ៊ុននានាកំពុងប្រណាំងប្រជែងគ្នាឆ្ពោះទៅរកការអភិវឌ្ឍបញ្ញាសិប្បនិម្មិតទូទៅ (AGI) និងបញ្ញាសិប្បនិម្មិតកម្រិតកំពូល (Super intelligence) ដែលជាទម្រង់ AI ដែលមានភាពវៃឆ្លាតលើសបញ្ញារបស់មនុស្ស។

អ្នកវិភាគឯករាជ្យដែលបានសិក្សាអំពីរបាយការណ៍នេះ បានរកឃើញថា គ្មានក្រុមហ៊ុនណាមួយ បានបង្កើតផែនការ ដែលអាចសាកល្បងបាន សម្រាប់ការគ្រប់គ្រងទៅលើប្រព័ន្ធ AI មានសមត្ថភាពខ្ពស់នៅឡើយទេ។
លោក Stuart Russell សាស្ត្រាចារ្យផ្នែកវិទ្យាសាស្ត្រកុំព្យូទ័រនៅសាកលវិទ្យាល័យកាលីហ្វ័រញ៉ា ប៊ើកលី បាននិយាយថា ក្រុមហ៊ុន AI អះអាងថា ពួកគេអាចបង្កើត AI ដ៏អស្ចារ្យ ប៉ុន្តែគ្មាននរណាម្នាក់បានបង្ហាញពីរបៀបការពារការបាត់បង់សមត្ថភាពការគ្រប់គ្រងរបស់មនុស្សលើប្រព័ន្ធនោះទេ៕




