
Anthropic ព្រមានថាការបញ្ចូលទិន្នន័យព្យាបាទដើម្បីបង្ខូចទ្រង់ទ្រាយការឆ្លើយតបរបស់ AI គឺងាយស្រួលជាងការគិត - រូបថត៖ FREEPIK
ក្រុមហ៊ុនបញ្ញាសិប្បនិមិត្ត Anthropic ដែលជាអ្នកបង្កើត chatbot Claude ទើបតែចេញផ្សាយការស្រាវជ្រាវដែលបង្ហាញថា "បំពុល" គំរូភាសាធំ (LLMs) ពោលគឺការបញ្ចូលទិន្នន័យព្យាបាទដើម្បីបង្ខូចទ្រង់ទ្រាយការឆ្លើយតបរបស់ AI គឺងាយស្រួលជាងការគិតទៅទៀត។
យោងតាមសារព័ត៌មាន Cyber News ឯកសារដែលបង្កើតជាពិសេសចំនួន 250 គឺគ្រប់គ្រាន់ដើម្បីធ្វើគំរូ AI (GenAI) ដែលផ្តល់ចម្លើយមិនត្រឹមត្រូវទាំងស្រុងនៅពេលជួបប្រទះឃ្លាគន្លឹះជាក់លាក់មួយ។
គួរឱ្យព្រួយបារម្ភ ទំហំរបស់ម៉ូដែលមិនកាត់បន្ថយហានិភ័យនេះទេ។ ពីមុន អ្នកស្រាវជ្រាវបានគិតថា ម៉ូដែលកាន់តែធំ ទិន្នន័យព្យាបាទកាន់តែច្រើននឹងត្រូវការដើម្បីដំឡើង "backdoor" ។
ប៉ុន្តែ Anthropic អះអាងថាទាំងគំរូប៉ារ៉ាម៉ែត្រចំនួន 13 ពាន់លានដែលត្រូវបានបណ្តុះបណ្តាលលើទិន្នន័យច្រើនជាង 20 ដង - និងគំរូប៉ារ៉ាម៉ែត្រ 600 លានអាចត្រូវបានសម្របសម្រួលដោយចំនួនឯកសារ "ពុល" តិចតួចដូចគ្នា។
Anthropic បានសង្កត់ធ្ងន់ថា "ការរកឃើញនេះប្រឈមនឹងការសន្មត់ថាអ្នកវាយប្រហារត្រូវតែគ្រប់គ្រងភាគរយជាក់លាក់នៃទិន្នន័យបណ្តុះបណ្តាល។ តាមការពិត ពួកគេប្រហែលជាត្រូវការចំនួនថេរតិចតួចប៉ុណ្ណោះ" Anthropic បានសង្កត់ធ្ងន់។
ក្រុមហ៊ុនព្រមានថាភាពងាយរងគ្រោះទាំងនេះអាចបង្កហានិភ័យធ្ងន់ធ្ងរដល់សុវត្ថិភាពនៃប្រព័ន្ធ AI និងគំរាមកំហែងដល់ការអនុវត្តបច្ចេកវិទ្យានៅក្នុងតំបន់រសើប។
ប្រភព៖ https://tuoitre.vn/anthropic-chi-luong-tai-lieu-nho-cung-du-dau-doc-mo-hinh-ai-khong-lo-20251013091401716.htm






Kommentar (0)