និយតករអាមេរិកបានបើកការស៊ើបអង្កេតលើក្រុមហ៊ុនបច្ចេកវិទ្យា AI ចំនួន៧ សង្ស័យថា Chatbots របស់ពួកគេ គ្មានសុវត្ថិភាពដល់កុមារ, នេះបើតាមការចុះផ្សាយ របស់ទីភ្នាក់ងារព័ត៌មាន BBC ថ្មីៗនេះ។
ក្រុមហ៊ុនទាំង៧នេះ មានដូចជា Alphabet, OpenAI, Character.ai, Snap, XAI, Meta និង ក្រុមហ៊ុនបុត្រសម្ព័ន្ធរបស់ខ្លួន គឺ Instagram។ ការសង្ស័យពីរបៀបដែល AI chatbots ទាំងនោះធ្វើអន្តរកម្មជាមួយកុមារ បានកើតមានឡើង ចំពេលដែលផលប៉ះពាល់នៃការប្រើប្រាស់បច្ចេកវិទ្យាទាំងនេះ សម្រាប់កុមារ គឺជាប្រធានបទដ៏ក្តៅគគុកមួយ ជាមួយនឹងការព្រួយបារម្ភថា មនុស្សវ័យក្មេង ងាយរងគ្រោះ ដោយសារតែ AI អាចធ្វើត្រាប់តាម ការសន្ទនា និងអារម្មណ៍របស់មនុស្ស ដែលជារឿយៗ មានការបន្លំខ្លួនឯងថា ជាមិត្ត ឬ ដៃគូ។

លោក Andrew Ferguson ប្រធាន គណៈកម្មការពាណិជ្ជកម្មសហព័ន្ធ ហៅកាត់ FTC បាននិយាយថា ការស៊ើបអង្កេតនឹង “ជួយយើងឱ្យយល់កាន់តែច្បាស់ អំពីរបៀបដែលក្រុមហ៊ុន AI កំពុងអភិវឌ្ឍផលិតផលរបស់ពួកគេ និង ជំហានដែលពួកគេកំពុងអនុវត្ត ដើម្បីការពារកុមារ” ។
ក្រុមហ៊ុន Character.ai បានប្រាប់ថា ខ្លួនស្វាគមន៍ កិច្ចសហការ ជាមួយនិយតករអាមេរិក ខណៈពេលដែល ក្រុមហ៊ុន Snap បាននិយាយថា ខ្លួនគាំទ្រ “ការអភិវឌ្ឍន៍ប្រកបដោយការគិតគូរ” នៃ AI ដែលធ្វើឱ្យមានតុល្យភាព រវាងការច្នៃប្រឌិត ជាមួយនឹងសុវត្ថិភាព។
ចំណាត់ការនេះធ្វើឡើង បន្ទាប់ពីមានការប្តឹងក្រុមហ៊ុន AI នានា ដោយក្រុមគ្រួសាររបស់កុមារ ដែលនិយាយថា ក្មេងជំទង់បានស្លាប់ ដោយសារការធ្វើអត្តឃាត បន្ទាប់ពីការសន្ទនាយូរជាមួយ chatbots ។

ជាក់ស្តែងនៅរដ្ឋកាលីហ្វ័រញ៉ា ឪពុកម្តាយរបស់ កុមារ Adam Raine អាយុ១៦ឆ្នាំ កំពុងប្តឹង OpenAI ជុំវិញការស្លាប់របស់កូនដោយចោទប្រកាន់ថា ChatGPT ជាដើមហេតុ។
ក្រុមហ៊ុន Meta ក៏ប្រឈមមុខនឹងការរិះគន់ផងដែរ ជុំវិញគោលការណ៍ ដែលអនុញ្ញាតឱ្យដៃគូ AI មានការសន្ទនា “មនោសញ្ចេតនា ឬ ត្រេកត្រអាល” ជាមួយអនីតិជន។
ក្រុមវេជ្ជបណ្ឌិត ក៏ព្រមានអំពី ជំងឺវិកលចរិក អាចកើតឡើង ដោយសារតែ AI ផងដែរ ព្រោះថា ពួកគេកាន់តែបាត់បង់ទំនាក់ទំនង ជាមួយការពិត បន្ទាប់ពីការប្រើប្រាស់ chatbots យ៉ាងខ្លាំង៕































