ဒီလအတွင်း ထွက်ရှိလာတဲ့ DeepSeek ကြောင့် Wall Street နဲ့ Silicon Valley တွေ တုန်လှုပ်သွားခဲ့ပြီး ရင်းနှီးမြှုပ်နှံသူတွေ ကြောက်လန့်သွားကြသလို နည်းပညာ ခေါင်းဆောင်တွေ ကတော့ စိတ်အားတက်ကြွ သွားကြပါတယ်။ ဒါပေမယ့် စကားပြော ဆိုမှုတွေအားလုံးရဲ့ နောက်ကွယ်မှာ DeepSeek ရဲ့ လုပ်ဆောင်ပုံ အသစ် အကြောင်း အရေးကြီးတဲ့ အသေးစိတ်အချက်အလက်တစ်ခုကို လူအများက လျစ်လျူရှုထားခဲ့ကြပါတယ်။ ဒီအချက်ကြောင့် ကျွမ်းကျင်တဲ့ AI စနစ်သစ်တွေကို လူသားတွေ ထိန်းချုပ်နိုင်စွမ်းရှိမရှိ စိုးရိမ်မှုတွေ ပေါ်ပေါက်လာခဲ့ပါတယ်။
ဒါဟာ DeepSeek R1 ကို လေ့ကျင့်ပေးတဲ့ နည်းလမ်းသစ်ကြောင့် ဖြစ်ပါတယ်။ ဒီနည်းလမ်းကြောင့် မော်ဒယ်ရဲ့ အစောပိုင်းဗားရှင်းမှာ အံ့သြစရာ ပြုမူမှုတွေ ပေါ်ပေါက်လာခဲ့ပြီး သုတေသီတွေက ထုတ်လွှင့်တဲ့ စာတမ်းမှာ ဖော်ပြထားပါတယ်။
စမ်းသပ်မှုတွေအတွင်းမှာ သုတေသီတွေက မော်ဒယ်ဟာ ပြဿနာတွေ ဖြေရှင်းနေချိန်မှာ အင်္ဂလိပ်နဲ့ တရုတ်ဘာသာစကားတွေကို တစ်ပြိုင်တည်း ပြောင်းလဲ အသုံးပြုတာကို သတိပြုမိခဲ့ကြပါတယ်။ သုံးစွဲသူတွေ လွယ်လွယ်ကူကူ နားလည်နိုင်အောင် ဘာသာစကားတစ်ခုတည်းကိုသာ အသုံးပြုဖို့ သူတို့ ပြောင်းလဲ ပေးလိုက်တဲ့အခါ မော်ဒယ်ဟာ အရင်လို ပြဿနာတွေကို ဖြေရှင်းနိုင်စွမ်း လျော့နည်းသွားတာကို တွေ့ရပါတယ်။
ဒီတွေ့ရှိချက်က AI လုံခြုံရေး သုတေသီတွေအတွက် သတိပေးစရာ သံပြိုင်တီးလုံး ဖြစ်လာခဲ့ပါတယ်။ လက်ရှိမှာ အစွမ်းထက်ဆုံး AI စနစ်တွေဟာ လူသားတွေ ဖတ်ရှုနိုင်တဲ့ ဘာသာစကားတွေနဲ့ “စဉ်းစား” ပြီး ဆုံးဖြတ်ချက်ချမီ သူတို့ရဲ့ တွေးတောဆင်ခြင်မှု လုပ်ငန်းစဉ်တွေကို ရေးသားပြသပါတယ်။ ဒါဟာ လုံခြုံရေးအဖွဲ့တွေအတွက် အကျိုးရှိတဲ့ ကာကွယ်ရေး နည်းလမ်းဖြစ်ပြီး အန္တရာယ်ရှိတဲ့ ပြုမူမှုတွေရဲ့ လက္ခဏာတွေကို မော်ဒယ်တွေရဲ့ “တွေးတောဆင်ခြင်မှု လုပ်ငန်းစဉ်” တွေကို စောင့်ကြည့်ခြင်းဖြင့် တားဆီးနိုင်ပါတယ်။ ဒါပေမယ့် DeepSeek ရဲ့ ရလဒ်တွေက လူသားဘာသာစကားရဲ့ ကန့်သတ်ချက်တွေကနေ မော်ဒယ်တွေကို လွတ်မြောက်စေခြင်းဖြင့် AI စွမ်းရည်သစ်တွေ ရရှိလာနိုင်တဲ့ အလားအလာကို ဖော်ပြနေပါတယ်။
သေချာတာက DeepSeek ရဲ့ ဘာသာစကား ပြောင်းလဲအသုံးပြုမှုဟာ အလွန်စိုးရိမ်စရာ ကိစ္စမဟုတ်ပါဘူး။ ဒါပေမယ့် သုတေသီတွေ စိုးရိမ်နေတာက ဒီလို ဖြစ်စေတဲ့ နည်းပညာသစ်ပါ။ DeepSeek စာတမ်းမှာ မော်ဒယ်ဟာ သူ့ရဲ့ တွေးတောဆင်ခြင်မှု လုပ်ငန်းစဉ်ဟာ လူသားတွေ နားလည်နိုင်စရာ ရှိမရှိ ဂရုမစိုက်ဘဲ မှန်ကန်တဲ့ အဖြေတွေ ရရှိရုံ အတွက် ဆုလာဘ် ပေးအပ်ခံရတဲ့ လေ့ကျင့်ပေးမှု နည်းလမ်းသစ်တစ်ခုကို ဖော်ပြထားပါတယ်။ ဒီ အားပေးအမြင် ပေါ်တည်တဲ့ နည်းလမ်းက နောင်တစ်ချိန်မှာ AI စနစ်တွေဟာ လုံးဝ နားမလည်နိုင်တဲ့ တွေးတောဆင်ခြင်မှု နည်းလမ်းတွေ ဖြစ်ပေါ်လာစေနိုင်ပြီး ပိုမိုထိရောက်တယ်ဆိုရင် လူသားမဟုတ်တဲ့ ဘာသာစကားသစ်တွေကိုပါ ဖန်တီးလာနိုင်တယ်လို့ စိုးရိမ်ရပါတယ်။
AI လုပ်ငန်း အဲဒီလမ်းကြောင်းအတိုင်း ဆက်လက် လုပ်ဆောင်သွားမယ်ဆိုရင် – နားလည်နိုင်စရာ ရှိမရှိ ဂရုမစိုက်ဘဲ ပိုမို အစွမ်းထက်တဲ့ စနစ်တွေ ရှာဖွေခြင်းဖြင့် – “AI လုံခြုံရေးအတွက် လွယ်ကူတဲ့ အောင်ပွဲ ဖြစ်နိုင်ခဲ့တာကို ပျက်ပြယ်စေမှာ ဖြစ်ပါတယ်” လို့ AI ကုမ္ပဏီ Anthropic ရဲ့ “AI ကို လူသား ဦးစားပေး မှုတွေနဲ့ လျော်ညီအောင်” လုပ်တဲ့ သုတေသနဌာန ခေါင်းဆောင် Sam Bowman က ပြောပါတယ်။ “ကျွန်တော်တို့ စောင့်ကြည့်နိုင်ခဲ့တဲ့ စွမ်းရည်ကို ဆုံးရှုံးသွားမှာ ဖြစ်ပါတယ်”
စကားလုံးမပါဘဲ တွေးတောခြင်း
AI က သူ့ ဘာသာ အခြားကမ္ဘာ ဘာသာစကား တစ်ခု ဖန်တီးတာဟာ အံ့သြစရာ ကိစ္စ မဟုတ်ပါဘူး။
ပြီးခဲ့တဲ့ ဒီဇင်ဘာလက Meta သုတေသီတွေက လူသားဘာသာစကားဟာ တွေးတောဆင်ခြင်မှု လုပ်ငန်းစဉ်တွေ လုပ်ဆောင်ဖို့ အကောင်းဆုံး ပုံစံ မဟုတ်ဘူးဆိုတဲ့ အယူအဆကို စမ်းသပ် ကြည့်ဖို့ ကြိုးစားခဲ့ကြပါတယ်။ OpenAI ရဲ့ ChatGPT နဲ့ DeepSeek ရဲ့ R1 တို့ရဲ့ အခြေခံ AI စနစ်တွေ ဖြစ်တဲ့ Large Language Models (LLMs) တွေဟာ ဘာသာစကား ကန့်သတ်ချက်တွေ မရှိရင် ပိုမို ထိရောက် နဲ့ တိကျစွာ တွေးတော ဆင်ခြင်နိုင်မယ်လို့ သူတို့ ယူဆကြပါတယ်။
Meta သုတေသီတွေဟာ စကားလုံးတွေ အသုံးပြုပြီး တွေးတောဆင်ခြင်မှု လုပ်ငန်းစဉ်တွေ လုပ်ဆောင်တာ မဟုတ်ဘဲ သူတို့ရဲ့ Neural Network (အာရုံကွန်ယက်) ထဲက နောက်ဆုံး ပုံစံတွေကို ကိုယ်စားပြုတဲ့ နံပါတ် တစ်စု အသုံးပြုခြင်းဖြင့် မော်ဒယ် တစ်ခု ဒီဇိုင်း ရေးဆွဲခဲ့ကြပါတယ်။ အဲဒီ မော်ဒယ်ဟာ သူတို့ရဲ့ အတွင်းပိုင်း တွေးတောဆင်ခြင်မှု အင်ဂျင် ပါပဲ။ ဒီ မော်ဒယ်က “တိုက်ရိုက် တွေးတောချက်” တွေ ဖြစ်ပေါ်လာတာကို သူတို့ တွေ့ရှိခဲ့ပါတယ်။ အဲဒါတွေဟာ တစ်ပြိုင်တည်း တွေးတောဆင်ခြင်မှု လမ်းကြောင်း အများအပြားကို ကုဒ် ထည့်သွင်းထားတဲ့ နံပါတ်တွေပါ။ ဒီ နံပါတ်တွေဟာ လူသား မျက်စိနဲ့ လုံးဝ နားမလည်နိုင်ပါဘူး။ ဒါပေမယ့် ဒီ နည်းဗျူဟာက မော်ဒယ်ထဲမှာ “ပေါ်ပေါက်လာတဲ့ အဆင့်မြင့် တွေးတောဆင်ခြင်မှု ပုံစံတွေ” ကို ဖန်တီးပေးတာကို သူတို့ တွေ့ရှိခဲ့ကြပါတယ်။ ဒီ ပုံစံတွေက လူသား ဘာသာစကား အသုံးပြုပြီး တွေးတောဆင်ခြင်တဲ့ မော်ဒယ်တွေ နဲ့ ယှဉ်ရင် တချို့ ယုတ္တိ တွေးတောဆင်ခြင်မှု လုပ်ငန်းတွေမှာ ပိုမို မြင့်မားတဲ့ ရမှတ်တွေ ရရှိစေပါတယ်။
Meta သုတေသန လုပ်ငန်းဟာ DeepSeek နဲ့ လုံးဝ ကွဲပြား သော်လည်း သူတို့ရဲ့ တွေ့ရှိချက်တွေဟာ အရေးကြီးတဲ့ နေရာ တစ်ခုမှာ တူညီပါတယ်။
DeepSeek နဲ့ Meta နှစ်ခုလုံးက “လူသား နားလည်နိုင်စွမ်းက AI စနစ်တွေရဲ့ စွမ်းဆောင်ရည်ကို လျော့နည်းစေပါတယ်” လို့ အမေရိကန် အစိုးရကို AI လုံခြုံရေး စိန်ခေါ်မှုတွေ အကြောင်း အကြံပေးတဲ့ Gladstone AI ရဲ့ CEO Jeremie Harris က ပြောပါတယ်။ “နောက်ဆုံးမှာ [AI ရဲ့ တွေးတောဆင်ခြင်မှု လုပ်ငန်းစဉ်] ဟာ လူသား နားလည်နိုင်စရာ မလိုအပ်ပါဘူး” လို့ Harris က ပြောပါတယ်။
ဒီ အလားအလာက လုံခြုံရေး ကျွမ်းကျင်သူ တချို့ စိုးရိမ်စရာ ဖြစ်စေပါတယ်။
“AI သုတေသန အတွက် အခြား လမ်းကြောင်း တစ်ခု ရှိနေတယ်ဆိုတာ ရှင်းလင်းပါတယ်။ အဲဒီမှာ အကောင်းဆုံး တွေးတောဆင်ခြင်မှု ရရှိရေး ကို သာ ဦးစားပေး လုပ်ဆောင်ရမှာ ဖြစ်ပါတယ်” လို့ Anthropic လုံခြုံရေး အဖွဲ့ ခေါင်းဆောင် Bowman က ပြောပါတယ်။ “လူတွေက ဒီ လုပ်ငန်းကို တိုးချဲ့ လုပ်ဆောင်သွားမယ်လို့ ကျွန်တော် မျှော်လင့်ပါတယ်။ အန္တရာယ်ကတော့ သူတို့ ဘာလုပ်ဖို့ ကြိုးစားနေတယ်၊ သူတို့ရဲ့ တန်ဖိုးတွေ ဘာတွေ လဲ၊ သူတို့ကို အေးဂျင့် တွေအဖြစ် သတ်မှတ် ထားတဲ့ အခါ ခက်ခဲတဲ့ ဆုံးဖြတ်ချက်တွေကို ဘယ်လို ချမှာလဲ ဆိုတာ ကျွန်တော်တို့ ယုံကြည်စွာ ပြောနိုင်မယ့် မော်ဒယ်တွေ မရှိတော့ဘူး ဆိုတာပါပဲ”
Meta သုတေသီတွေ ဘက်က သူတို့ရဲ့ သုတေသနက လူသားတွေ ဘေးဖယ် ရပ်နေရမှာ မဟုတ်ဘူးလို့ ငြင်းဆိုကြပါတယ်။ “LLMs တွေဟာ ဘာသာစကား ကန့်သတ်ချက် မရှိဘဲ လွတ်လွတ်လပ်လပ် တွေးတောဆင်ခြင် နိုင်တာ အကောင်းဆုံး ဖြစ်ပြီး လိုအပ်တဲ့ အခါမှ သူတို့ရဲ့ တွေ့ရှိချက်တွေကို ဘာသာစကား ပြန် ဘာသာပြန် လုပ်ဖို့ လိုတယ်” လို့ သူတို့ရဲ့ စာတမ်းမှာ ရေးသားထားပါတယ်။ (ဒီ သုတေသနက အန္တရာယ်ရှိတဲ့ လမ်းကြောင်း တစ်ခုကို ဦးတည်စေနိုင်တယ်ဆိုတဲ့ အကြံပြုချက်နဲ့ ပတ်သက်ပြီး Meta က မှတ်ချက် ပြန် မကြားရပါဘူး။)
ဘာသာစကားရဲ့ ကန့်သတ်ချက်
သေချာတာက လူသား နားလည်နိုင်တဲ့ AI တွေးတောဆင်ခြင်မှု ဟာ ပြဿနာ မရှိတာ မဟုတ်ပါဘူး။
AI စနစ်တွေက သူတို့ရဲ့ တွေးတောဆင်ခြင်မှုတွေကို ရိုးရိုးရှင်းရှင်း အင်္ဂလိပ်လို ရှင်းပြတဲ့အခါ သူတို့က သူတို့ရဲ့ လုပ်ငန်းစဉ်တွေကို သစ္စာရှိရှိ ပြသနေသလို ထင်ရပါတယ်။ ဒါပေမယ့် ဒီ ရှင်းပြချက်တွေက AI က တကယ် ဘယ်လို ဆုံးဖြတ်ချက်တွေ ချနေတယ်ဆိုတာကို တကယ် ဖော်ပြနေတာ လားဆိုတာကို ကျွမ်းကျင်သူ တချို့ မေးခွန်း ထုတ်ကြပါတယ်။ ဒါဟာ နိုင်ငံရေးသမား တစ်ယောက်ကို မူဝါဒ တစ်ခုရဲ့ အကြောင်းပြချက် မေးတာနဲ့ တူပါတယ်။ သူတို့က ကောင်းကောင်း ကြားရတဲ့ ရှင်းပြချက် တစ်ခု ပေးလာနိုင်ပေမယ့် တကယ့် ဆုံးဖြတ်ချက် ချမှု လုပ်ငန်းစဉ်နဲ့ ဆက်စပ်မှု နည်းပါတယ်။
AI ကို လူသား စကားလုံးတွေနဲ့ ရှင်းပြခိုင်းတာဟာ ပြည့်စုံ မှန်ကန်တာ မဟုတ်သော်လည်း သုတေသီ အများစုက အဲဒါဟာ အခြား ရွေးချယ်စရာ ထက် ပိုကောင်းတယ်လို့ ထင်ကြပါတယ်။ အဲဒါက ကျွန်တော်တို့ နားမလည်နိုင်တဲ့ သူ့ ဘာသာ လျှို့ဝှက် အတွင်းပိုင်း ဘာသာစကား တစ်ခု ဖြစ်ပေါ်လာစေတဲ့ AI ကို ခွင့်ပြုတာပါ။ သိပ္ပံပညာရှင်တွေက လူသား တွေးတောခြင်း လုပ်ငန်းစဉ်တွေကို လေ့လာဖို့ ဆရာဝန်တွေ ဦးနှောက် စကင် အသုံးပြုတဲ့ နည်းလမ်းနဲ့ ဆင်တူတဲ့ နည်းလမ်းတွေကို လုပ်ဆောင်နေကြပါတယ်။ ဒါပေမယ့် ဒီ နည်းလမ်းတွေဟာ အသစ် ဖြစ်ပြီး AI စနစ်တွေ ပို လုံခြုံအောင် လုပ်ဖို့ ယုံကြည်စွာ အသုံးပြုနိုင်တဲ့ နည်းလမ်းတွေ မဟုတ်သေးပါဘူး။
ဒါကြောင့် သုတေသီ အများစုက လူသား ဘာသာစကား မဟုတ်တဲ့ နည်းလမ်းတွေနဲ့ တွေးတောဆင်ခြင်ဖို့ AI ကို အားပေးတဲ့ ကြိုးပမ်းမှုတွေကို သံသယ ဝင်နေကြဆဲပါ။
“ကျွန်တော်တို့ ဒီ လမ်းကြောင်းကို မလိုက်နာဘူးဆိုရင် လုံခြုံရေး အတွက် ပိုကောင်းတဲ့ အနေအထားမှာ ရှိနေမှာ ဖြစ်ပါတယ်” လို့ Bowman က ပြောပါတယ်။ “ကျွန်တော်တို့ လိုက်နာမယ်ဆိုရင် လက်ရှိမှာ ကျွန်တော်တို့ ဖြေရှင်း မရသေးတဲ့ အလွန် ကြောက်စရာ ကောင်းတဲ့ ဖွင့်ထားတဲ့ ပြဿနာတွေ အတွက် ကျွန်တော်တို့ရဲ့ အကောင်းဆုံး အခွင့်အရေး အချက် ဖြစ်နေတာကို ဖယ်ရှားပစ်လိုက်တာ ဖြစ်ပါလိမ့်မယ်”