OpenAI និយាយថាវាខ្លួនបានចាប់ផ្ដើមបណ្ដុះបណ្ដាលស្មាតហ្វូនស៊េរីថ្មីគំរូ AI

Share to:

OpenAI បាននិយាយកាលពីថ្ងៃអង្គារថាខ្លួនបានចាប់ផ្តើមបណ្តុះបណ្តាលគំរូឆ្លាតវៃសិប្បនិម្មិតថ្មីដែលនឹងទទួលបានជោគជ័យនៃបច្ចេកវិទ្យា GPT-4 ដែលជំរុញការជជែកតាមអ៊ីនធឺណិតដ៏ពេញនិយមរបស់ខ្លួនគឺ ChatGPT

AI ចាប់ផ្តើមបានប្រកាសផែនការសម្រាប់ម៉ូដែលថ្មីដែលមានបំណងសម្រេចបាននូវបញ្ញា សិប្បនិម្មិតទូទៅ ជាមួយនឹងកម្មវិធីសក្តានុពលនៅក្នុង chatbots ជំនួយការឌីជីថល ម៉ាស៊ីនស្វែងរក និងការបង្កើតរូបភាព។

OpenAI ក៏បាននិយាយផងដែរថា ខ្លួនកំពុងបង្កើតគណៈកម្មាធិការសុវត្ថិភាព និងសន្តិសុខថ្មីមួយ ដើម្បីស្វែងយល់ពីរបៀបដែលវាគួរដោះស្រាយហានិភ័យដែលបង្កឡើងដោយម៉ូដែលថ្មី និងបច្ចេកវិទ្យានាពេលអនាគត។

ក្រុមហ៊ុនបាននិយាយថា “ខណៈពេលដែលយើងមានមោទនភាពក្នុងការបង្កើត និងបញ្ចេញម៉ូដែលដែលឈានមុខគេក្នុងឧស្សាហកម្មទាំងសមត្ថភាព និងសុវត្ថិភាព យើងស្វាគមន៍ការពិភាក្សាដ៏រឹងមាំមួយនៅក្នុងពេលវេលាដ៏សំខាន់នេះ។

OpenAI ស្វែងរកការជំរុញ AI បច្ចេកវិទ្យានាំមុខដៃគូប្រកួតប្រជែង ដោយដោះស្រាយកង្វល់អំពីហានិភ័យ និងផលប៉ះពាល់សង្គម។ ក្រុមហ៊ុនបច្ចេកវិទ្យាយក្សដូចជា OpenAI, Google, Meta, និង Microsoft បាននឹងកំពុងពង្រឹងសមត្ថភាព AI ជាច្រើនឆ្នាំមកនេះ ជាមួយនឹងការទស្សន៍ទាយខុសគ្នាលើការឈានទៅដល់បញ្ញាទូទៅសិប្បនិម្មិត។

OpenAI បានណែនាំ GPT-4 នៅក្នុងខែមីនា ឆ្នាំ 2023 ដោយបង្កើនសមត្ថភាពសម្រាប់ chatbots និងកម្មវិធីដើម្បីបំពេញការងារផ្សេងៗដូចជាការឆ្លើយសំណួរ សរសេរអ៊ីមែល និងវិភាគទិន្នន័យ។ កំណែដែលបានអាប់ដេត ដែលបានចាប់ផ្តើមនាពេលថ្មីៗនេះ ក៏អាចបង្កើតរូបភាព និងចូលរួមក្នុងការសន្ទនាជាមួយនឹងសំឡេងធម្មជាតិផងដែរ។

Scarlett Johansson បានលើកឡើងពីការព្រួយបារម្ភអំពី GPT-4o របស់ OpenAI ដោយនិយាយថាសំឡេងរបស់វាស្រដៀងនឹងនាងយ៉ាងខ្លាំង។ នាងបានច្រានចោលការផ្តល់អាជ្ញាប័ណ្ណសំឡេងរបស់នាងចំពោះផលិតផល ដែលនាំឱ្យមានចំណាត់ការផ្លូវច្បាប់ ខណៈដែលនាងបានស្នើឱ្យ OpenAI បញ្ឈប់ការប្រើប្រាស់សំឡេងដែលក្រុមហ៊ុនបានបំភ្លឺថាមិនមែនជារបស់នាង។

GPT-4o និងបច្ចេកវិទ្យាស្រដៀងគ្នាទទួលបានជំនាញតាមរយៈការវិភាគទិន្នន័យឌីជីថលយ៉ាងទូលំទូលាយដែលរួមមានប្រភេទប្រព័ន្ធផ្សព្វផ្សាយផ្សេងៗ។ ថ្មីៗនេះ កាសែត The New York Times បានដាក់ពាក្យបណ្តឹងប្រឆាំងនឹង OpenAI និង Microsoft ដោយចោទប្រកាន់ការរំលោភសិទ្ធិអ្នកនិពន្ធនៃមាតិកាព័ត៌មានដែលភ្ជាប់ទៅនឹងប្រព័ន្ធ AI

ការបណ្តុះបណ្តាល AI ម៉ូដែលឌីជីថលអាចជាដំណើរការដ៏វែងមួយ យូរអង្វែងរាប់ខែ ឬច្រើនឆ្នាំ។ បន្ទាប់ពីបញ្ចប់វគ្គបណ្តុះបណ្តាល AI ក្រុមហ៊ុនតែងតែលះបង់ជាច្រើនខែ ដើម្បីសាកល្បង និងកែលម្អបច្ចេកវិទ្យាសម្រាប់ដាក់ឱ្យប្រើប្រាស់ជាសាធារណៈ។

OpenAI កំពុងបង្កើតគណៈកម្មាធិការសុវត្ថិភាព ដើម្បីបង្កើនគោលនយោបាយ និងនីតិវិធីសម្រាប់ការការពារបច្ចេកវិទ្យារបស់ខ្លួនក្នុងអំឡុងពេលបណ្តុះបណ្តាលគំរូ។ គណៈកម្មាធិការដែលពាក់ព័ន្ធនឹងឥស្សរជនសំខាន់ៗដូចជាលោក Altman និងសមាជិកក្រុមប្រឹក្សាភិបាល Bret Taylor, Adam D’Angelo និង Nicole Seligman មានគោលបំណងអនុវត្តគោលនយោបាយថ្មីនៅចុងរដូវក្តៅឬរដូវស្លឹកឈើជ្រុះ។

Ilya Sutskever ដែលជាសហស្ថាបនិក និងជាតួអង្គសំខាន់ក្នុងគំនិតផ្តួចផ្តើមសុវត្ថិភាពរបស់ OpenAI បានប្រកាសពីការចាកចេញរបស់គាត់ពីក្រុមហ៊ុនក្នុងខែនេះ។ ការចាកចេញរបស់គាត់បានធ្វើឱ្យមានការព្រួយបារម្ភអំពីការត្រៀមខ្លួនរួចជាស្រេចរបស់ OpenAI ដើម្បីដោះស្រាយហានិភ័យដែលទាក់ទងនឹង AI

លោកវេជ្ជបណ្ឌិត Sutskever បានចូលរួមជាមួយសមាជិកក្រុមប្រឹក្សាភិបាលបីនាក់ផ្សេងទៀតកាលពីខែវិច្ឆិកា ដើម្បីដកលោក Altman ចេញពី OpenAI ដោយនិយាយថា លោក Altman មិនអាចជឿទុកចិត្តបានទៀតទេជាមួយនឹងផែនការរបស់ក្រុមហ៊ុនក្នុងការបង្កើតបញ្ញាទូទៅសិប្បនិម្មិតសម្រាប់មនុស្សជាតិ។ បន្ទាប់ពីយុទ្ធនាការបញ្ចុះបញ្ចូលដោយសម្ព័ន្ធមិត្តរបស់លោក Altman គាត់ត្រូវបានគេដាក់ឱ្យដំណើរការឡើងវិញប្រាំថ្ងៃក្រោយមក ហើយចាប់តាំងពីពេលនោះមកបានអះអាងការគ្រប់គ្រងក្រុមហ៊ុនឡើងវិញ។

លោកវេជ្ជបណ្ឌិត Sutskever បានដឹកនាំក្រុម Superalignment របស់ OpenAI ដែលផ្តោតលើការការពារគ្រោះថ្នាក់ពីម៉ូដែល AI នឹង ការព្រួយបារម្ភអំពីហានិភ័យសក្តានុពលរបស់ AI ចំពោះមនុស្សជាតិបានកើនឡើង។

Jan Leike ដែលធ្វើការជាមួយលោកវេជ្ជបណ្ឌិត Sutskever បានលាលែងពីតំណែង ដោយបង្ហាញពីភាពមិនច្បាស់លាស់លើគន្លងរបស់ក្រុម។ ការស្រាវជ្រាវសុវត្ថិភាពរយៈពេលវែងនៅ OpenAI ឥឡូវនេះស្ថិតនៅក្រោមការដឹកនាំរបស់លោក John Schulman ដែលជាសហស្ថាបនិកដែលចូលរួមក្នុងការបង្កើត ChatGPT ជាមួយនឹងការត្រួតពិនិត្យពីគណៈកម្មាធិការសុវត្ថិភាពថ្មីសម្រាប់ដោះស្រាយហានិភ័យផ្នែកបច្ចេកវិទ្យា។

Leave a Reply

Your email address will not be published. Required fields are marked *