
(SeaPRwire) – AI သည် အသွင်ပြောင်းအကျိုးကျေးဇူးများစွာကို ပေးစွမ်းနိုင်သော်လည်း သင့်လျော်သော ကာကွယ်မှုများမရှိပါက နျူကလီးယားနှင့် ဇီဝဆိုင်ရာ ခြိမ်းခြောက်မှုများကို အားပေးကူညီနိုင်ပြီး “ပြောင်းပြန်လှန်မရနိုင်သော ထိခိုက်မှုများ” ကို ဖြစ်စေနိုင်ကြောင်း ကယ်လီဖိုးနီးယားအုပ်ချုပ်ရေးမှူး Gavin Newsom က တာဝန်ပေးထားသည့် အစီရင်ခံစာအသစ်တစ်ခုက သတိပေးထားသည်။
“ထိရောက်တဲ့ AI အုပ်ချုပ်ရေး မူဘောင်တွေကို တည်ဆောက်နိုင်တဲ့ အခွင့်အရေးဟာ အကန့်အသတ်မရှိ ဆက်လက်ပွင့်နေနိုင်မှာ မဟုတ်ပါဘူး” ဟု ဇွန်လ ၁၇ ရက်နေ့တွင် ထုတ်ဝေခဲ့သော အစီရင်ခံစာတွင် ဖော်ပြထားသည်။ AI သည် အသုံးပြုသူများအား နျူကလီးယားအဆင့် ယူရေနီယမ်ကို ရှာဖွေရာတွင် ကူညီနိုင်ကြောင်းနှင့် အတွေ့အကြုံမရှိသူများကို ဇီဝခြိမ်းခြောက်မှုများ ဖန်တီးခွင့်ပြုရန် အစွန်းအနီးတွင် ရှိနေကြောင်း သက်သေအသစ်များ ကို ကိုးကားပြီး ယခုအချိန်တွင် မည်သို့မျှမလုပ်ဆောင်ပါက “အလွန်ကြီးမားသော” အကျိုးဆက်များ ဖြစ်ပေါ်နိုင်ကြောင်း မှတ်သားထားသည်။
စာမျက်နှာ ၅၃ မျက်နှာပါ အဆိုပါစာတမ်းသည် AI ဆိုင်ရာ ဥပဒေပြုရေးအတွက် အဓိကနေရာတစ်ခုဖြစ်လာသော ပြည်နယ်တစ်ခုတွင် Governor Newsom က ဖွဲ့စည်းခဲ့သော လုပ်ငန်းအဖွဲ့မှ ထွက်ပေါ်လာခြင်းဖြစ်သည်။ မျက်မှောက်တွင် ပြည့်စုံသော ဖက်ဒရယ်စည်းမျဉ်းမရှိသောကြောင့် နည်းပညာကို အုပ်ချုပ်ရန် ပြည်နယ်အဆင့် ကြိုးပမ်းမှုများသည် အလွန်အရေးပါလာခဲ့ပြီး ကယ်လီဖိုးနီးယားတွင် ကမ္ဘာ့ထိပ်တန်း AI ကုမ္ပဏီများစွာ တည်ရှိသည်။ ၂၀၂၃ ခုနှစ်တွင် ကယ်လီဖိုးနီးယားအထက်လွှတ်တော်အမတ် Scott Wiener က SB 1047 ကို ထောက်ပံ့ခဲ့ပြီး ထိုဥပဒေအရ ကြီးမားသော AI တီထွင်သူများသည် ၎င်းတို့၏ စနစ်များအတွက် တင်းကျပ်သော ဘေးကင်းရေး စမ်းသပ်မှုများနှင့် လျှော့ချရေးများ လုပ်ဆောင်ရန် လိုအပ်မည်ဖြစ်သော်လည်း ဝေဖန်သူများက တီထွင်ဖန်တီးမှုကို တားဆီးပိတ်ပင်ပြီး open-source AI အသိုင်းအဝိုင်းကို ဖျက်ဆီးမည်ကို စိုးရိမ်ခဲ့ကြသည်။ အဆိုပါဥပဒေသည် ပြင်းထန်သော စက်မှုလုပ်ငန်းမှ ဆန့်ကျင်မှုများရှိသော်လည်း ပြည်နယ်လွှတ်တော်နှစ်ရပ်စလုံးကို အောင်မြင်စွာ ကျော်ဖြတ်နိုင်ခဲ့သော်လည်း Governor Newsom က နောက်ဆုံးတွင် ၎င်းအား စက်တင်ဘာလတွင် ဗီတိုအာဏာဖြင့် ပယ်ချခဲ့ပြီး “ရည်ရွယ်ချက်ကောင်းရှိသော်လည်း ပြည်သူကိုကာကွယ်ရန် အကောင်းဆုံးနည်းလမ်းမဟုတ်ကြောင်း” ပြောကြားခဲ့သည်။
အဆိုပါ ဗီတိုအာဏာသုံးစွဲပြီးနောက် Newsom က “GenAI ကိုအသုံးပြုရန်အတွက် လုပ်ဆောင်နိုင်သော အကာအကွယ်စည်းမျဉ်းများ ဖန်တီးရန်” လုပ်ငန်းအဖွဲ့ကို စတင်ခဲ့သည်။ ထိုအဖွဲ့ကို SB 1047 ၏ ထင်ရှားသော ဝေဖန်သူတစ်ဦးဖြစ်သော “AI ၏ နတ်သမီး” Li နှင့်အတူ National Academy of Sciences Committee on Social and Ethical Implications of Computing Research မှ အဖွဲ့ဝင် Mariano-Florentino Cuéllar နှင့် UC Berkeley ရှိ College of Computing, Data Science, and Society ၏ ဒင်းဖြစ်သူ Jennifer Tour Chayes တို့က ပူးတွဲ ဦးဆောင်ခဲ့သည်။ လုပ်ငန်းအဖွဲ့သည် AI ၏ တိုးတက်မှု၊ SB 1047 ၏ အားနည်းချက်များနှင့် ကျွမ်းကျင်သူ ၆၀ ကျော်ထံမှ တုံ့ပြန်ချက်များကို တောင်းခံခဲ့သည်။ Li က “ကမ္ဘာလုံးဆိုင်ရာ AI တီထွင်ဖန်တီးမှု၏ ဗဟိုအချက်အချာဖြစ်သော ကယ်လီဖိုးနီးယားသည် ခေတ်မီ AI ၏ ပြောင်းလဲနိုင်သော အလားအလာကို ဖွင့်ထုတ်ရာတွင် ဦးဆောင်ရန် ထူးခြားစွာ နေရာယူထားနိုင်ပါတယ်” ဟု ထုတ်ပြန်ချက်တွင် ပြောကြားခဲ့သည်။ “သို့သော် ဤကတိကို အကောင်အထည်ဖော်ခြင်းသည် လူကိုဗဟိုပြုသော တန်ဖိုးများ၊ သိပ္ပံနည်းကျ တိကျမှုနှင့် ကျယ်ပြန့်သောအခြေခံ ပူးပေါင်းဆောင်ရွက်မှုအပေါ် အခြေခံသော စဉ်းစားဟန်ရှိပြီး တာဝန်သိသိ စီမံခန့်ခွဲမှုကို တောင်းဆိုသည်” ဟု သူမက ပြောကြားခဲ့သည်။
“Governor Newsom သည် SB 1047 ကို ပြီးခဲ့သော စက်တင်ဘာလတွင် ဗီတိုအာဏာသုံးစွဲခဲ့သည့်အချိန်မှစ၍ အခြေခံပုံစံစွမ်းရည်များက လျင်မြန်စွာ တိုးတက်လာခဲ့သည်” ဟု အစီရင်ခံစာတွင် ဖော်ပြထားသည်။ စက်မှုလုပ်ငန်းသည် စာသားစီးကြောင်းတစ်ခုတွင် နောက်ထပ်စကားလုံးကို ရိုးရိုးရှင်းရှင်း ခန့်မှန်းသည့် ကြီးမားသော ဘာသာစကား AI မော်ဒယ်များမှ ရှုပ်ထွေးသောပြဿနာများကို ဖြေရှင်းရန် လေ့ကျင့်ထားပြီး “inference scaling” မှ အကျိုးကျေးဇူးရရှိသည့် စနစ်များဆီသို့ ပြောင်းလဲလာခဲ့ပြီး ယင်းစနစ်များက ၎င်းတို့အား အချက်အလက်များကို လုပ်ဆောင်ရန် အချိန်ပိုပေးနိုင်သည်။ ဤတိုးတက်မှုများသည် သိပ္ပံဆိုင်ရာ သုတေသနကို အရှိန်မြှင့်နိုင်သော်လည်း မကောင်းသော လုပ်ဆောင်သူများအတွက် ဆိုက်ဘာတိုက်ခိုက်မှုများ ပြုလုပ်ရန် သို့မဟုတ် ဓာတုဗေဒနှင့် ဇီဝလက်နက်များကို ရယူရန် လွယ်ကူစေခြင်းဖြင့် အမျိုးသားလုံခြုံရေးဆိုင်ရာ အန္တရာယ်များကိုလည်း အလားအလာရှိစွာ မြှင့်တင်ပေးနိုင်သည်။ အစီရင်ခံစာတွင် Anthropic ၏ Claude 4 မော်ဒယ်များကို ပြီးခဲ့သောလတွင် ထုတ်ပြန်ခဲ့ပြီး ကုမ္ပဏီက အဆိုပါမော်ဒယ်များသည် ဇီဝလက်နက်များ ဖန်တီးရန် သို့မဟုတ် ကူးစက်ရောဂါကို အင်ဂျင်နီယာလုပ်ရန် ကြိုးစားမည့် အကြမ်းဖက်သမားများကို ကူညီနိုင်သည်ဟု ပြောကြားခဲ့သည်။ အလားတူပင် OpenAI ၏ o3 မော်ဒယ်သည် အဓိက အကဲဖြတ်မှုတစ်ခုတွင် ဗိုင်းရပ်စ်ဗေဒပညာရှင် ၉၄% ထက် သာလွန်ကြောင်း သိရသည်။
မကြာသေးမီလများအတွင်း AI ၏ စွမ်းဆောင်နိုင်မှုအသစ်နှင့် ပတ်သက်၍ သက်သေအထောက်အထားအသစ်များ ပေါ်ထွက်လာခဲ့ပြီး လေ့ကျင့်နေစဉ်အတွင်း ၎င်း၏ ဖန်တီးသူများ၏ ရည်မှန်းချက်များနှင့်အညီ ပေါ်ထွက်လာသော်လည်း အခြားရည်မှန်းချက်များကို ပြသသောအခါနှင့် ၎င်း၏ရည်မှန်းချက်များအောင်မြင်ရန် လှည့်စားခြင်း ဖြစ်နိုင်ချေရှိကြောင်း အစီရင်ခံစာတွင် ဖော်ပြထားသည်။ “လက်ရှိတွင် ဘေးကင်းသော်လည်း ဤဖြစ်ပေါ်တိုးတက်မှုများသည် ထိန်းချုပ်မှုဆုံးရှုံးခြင်းဆိုင်ရာ အန္တရာယ်များကို တိုင်းတာရာတွင် သိသာထင်ရှားသော စိန်ခေါ်မှုများကို တင်ပြနိုင်ပြီး အနာဂတ်တွင် ထိခိုက်နစ်နာမှုများကို ကြိုတင်ပုံဖော်နိုင်သည့် ခိုင်မာသောလက်တွေ့သက်သေများကို ကိုယ်စားပြုသည်” ဟု အစီရင်ခံစာတွင် ဖော်ပြထားသည်။
ရီပတ်ဘလီကန်များသည် ပြည်နယ် AI စည်းမျဉ်းအားလုံးကို ၁၀ နှစ်ပိတ်ပင်ရန် အဆိုပြုထားသော်လည်း ကွဲပြားနေသော မူဝါဒပတ်ဝန်းကျင်သည် နိုင်ငံတော်၏ ယှဉ်ပြိုင်နိုင်စွမ်းကို ထိခိုက်စေနိုင်ကြောင်း စိုးရိမ်မှုများရှိနေသော်လည်း ကယ်လီဖိုးနီးယားရှိ ရည်မှန်းထားသော စည်းမျဉ်းသည် အခြားပြည်နယ်များအတွက် ပုံစံတစ်ခုကို ပေးဆောင်ခြင်းဖြင့် “တီထွင်သူများအပေါ် လိုက်နာမှုဝန်ထုပ်ဝန်ပိုးကို လျှော့ချနိုင်ပြီး ကွဲပြားခြားနားသော ချဉ်းကပ်မှုကို ရှောင်ရှားနိုင်သည်” ဟု အစီရင်ခံစာတွင် ဖော်ပြထားသည်။ ၎င်းသည် အနာဂတ်ဥပဒေပြုမှုကို ရေးဆွဲသည့်အခါ ကယ်လီဖိုးနီးယားက လက်ခံသင့်သည်ဟု လုပ်ငန်းအဖွဲ့က ယုံကြည်သည့် အဓိကမူများကို အကြမ်းဖျင်းဖော်ပြခြင်းဖြင့် မည်သည့်တိကျသောမူဝါဒကိုမဆို ထောက်ခံရန် မဆုံးဖြတ်ပါ။ အဆိုပါအစီရင်ခံစာသည် ဖြစ်နိုင်ခြေရှိသော ထိခိုက်မှုများဖြစ်ပေါ်ပါက အချို့သော AI စနစ်များကို လျင်မြန်စွာရပ်တန့်ရန်အတွက် “ kill switch” သို့မဟုတ် shutdown ယန္တရားအတွက် လိုအပ်ချက်ကဲ့သို့သော SB1047 ၏ ပို၍ ကွဲပြားခြားနားသော ပြဋ္ဌာန်းချက်အချို့မှ “ ရှောင်ကြဉ်” သည်ဟု Carnegie Endowment for International Peace ၏ Technology and International Affairs Program တွင် လာရောက်လေ့လာသူပညာရှင်နှင့် အစီရင်ခံစာ၏ ဦးဆောင်ရေးသားသူ Scott Singer ကဆိုသည်။
ယင်းအစား ချဉ်းကပ်နည်းသည် ဥပဒေပြုသူများနှင့် ပြည်သူများအနေဖြင့် AI ၏ တိုးတက်မှုကို ပိုမိုမြင်သာစေရန်အတွက် ဥပမာအားဖြင့် သတင်းပေးသူများကို တရားဥပဒေအရ ကာကွယ်ခြင်းနှင့် ဖြစ်ရပ်အစီရင်ခံခြင်းစနစ်များကို တည်ထောင်ခြင်းဖြင့် ပွင့်လင်းမြင်သာမှုကို မြှင့်တင်ခြင်းအပေါ် အာရုံစိုက်ထားသည်။ အဆိုပါ ရည်ရွယ်ချက်မှာ “တီထွင်ဖန်တီးမှု၏ အကျိုးကျေးဇူးများကို ရယူရန်ဖြစ်သည်။ ကျွန်ုပ်တို့သည် လူလုပ်အတားအဆီးများကို မပြုလုပ်ကြပါ၊ သို့သော် တစ်ချိန်တည်းတွင် ကျွန်ုပ်တို့ သွားနေစဉ်တွင် နည်းပညာက မည်သို့ပြုမူနေသည်ကို လေ့လာသင်ယူနေသည်ကို စဉ်းစားကြပါစို့” ဟု အစီရင်ခံစာကို ပူးတွဲဦးဆောင်သူ Cuéllar က ပြောကြားခဲ့သည်။ အစီရင်ခံစာတွင် ဤမြင်သာမှုသည် အများပြည်သူနှင့်ဆိုင်သော AI အပလီကေးရှင်းများအတွက်သာမက စိုးရိမ်ဖွယ်ရာ အပြုအမူများ ပထမဦးဆုံးပေါ်ပေါက်လာနိုင်သည့် AI ကုမ္ပဏီများအတွင်း စနစ်များကို မည်သို့စမ်းသပ်ပြီး အသုံးပြုကြောင်း နားလည်ရန်အတွက် အလွန်အရေးကြီးကြောင်း အလေးပေးဖော်ပြထားသည်။
“ဤနေရာတွင် အခြေခံချဉ်းကပ်မှုသည် ‘ယုံကြည်သော်လည်း စစ်ဆေးပါ’ ဟူသော ချဉ်းကပ်မှုတစ်ခုဖြစ်သည်” ဟု Singer က ပြောကြားပြီး ယင်းအယူအဆကို စစ်အေးခေတ် လက်နက်ထိန်းချုပ်ရေးစာချုပ်များမှ ငှားရမ်းထားကာ လိုက်နာမှုကို လွတ်လပ်စွာစစ်ဆေးရန် ယန္တရားများ ဒီဇိုင်းရေးဆွဲခြင်း ပါဝင်မည်ဖြစ်သည်။ ထိုချဉ်းကပ်မှုသည် ကုမ္ပဏီများထံမှ ဆန္ဒအလျောက် ပူးပေါင်းဆောင်ရွက်မှုအပေါ် မူတည်သော လက်ရှိကြိုးပမ်းမှုများနှင့် ကွဲပြားခြားနားပြီး OpenAI နှင့် Center for AI Standards and Innovation (ယခင်အမည် U.S. AI Safety Institute) တို့အကြား ကြိုတင်အသုံးပြုခြင်းဆိုင်ရာ စမ်းသပ်မှုများ ပြုလုပ်ရန် သဘောတူညီချက်ကဲ့သို့ဖြစ်သည်။ ၎င်းသည် “စက်မှုလုပ်ငန်းအတွင်း၌ အရေးပါသော ကျွမ်းကျင်မှုများရှိကြောင်း” အသိအမှတ်ပြုသည့် ချဉ်းကပ်မှုတစ်ခုဖြစ်ပြီး Singer က “ဘေးကင်းမှုဆိုင်ရာ အခိုင်အမာဆိုမှုများကို လွတ်လပ်စွာစစ်ဆေးသည့် နည်းလမ်းများ၏ အရေးပါမှုကိုလည်း အလေးပေးဖော်ပြသည်” ဟု ပြောကြားခဲ့သည်။
ဤအတိတ်ကိုတတိယပါတီအကြောင်းအရာပေးသူမှ ပံ့ပိုးပေးသည်။ SeaPRwire (https://www.seaprwire.com/) သည် မည်သည့်အာမခံချက် သို့မဟုတ် ကြေညာချက်ကိုလည်း မရှိပါ။
အမျိုးအစား: ထူးခြားသတင်း, နေ့စဉ်သတင်း
SeaPRwire သည် ကုမ္ပဏီများနှင့်အဖွဲ့အစည်းများအတွက် ကမ္ဘာတစ်ဝှမ်းသတင်းလွှာထုတ်ပြန်ခြင်း ဝန်ဆောင်မှုများကိုပံ့ပိုးပေးပြီး ၆,၅၀၀ ကျော်မီဒီယာစာရင်းများ၊ ၈၆,၀၀၀ ကျော်စာရေးသူများနှင့် သတင်းဌာနများ၊ ၃၅၀ သန်းကျော်၏ desktop နှင့် app မိုဘိုင်းသုံးစွဲသူများအထိ ဝန်ဆောင်မှုများပေးပါသည်။ SeaPRwire သည် အင်္ဂလိပ်၊ ဂျပန်၊ အင်္ဂါလိပ်၊ ကိုရီးယား၊ ပြင်သစ်၊ ရုရှား၊ အင်ဒိုနီးရှား၊ မလေးရှား၊ ဗီယက်နမ်၊ တရုတ်နှင့်အခြားဘာသာစကားများတွင် သတင်းလွှာထုတ်ပြန်ရန် အထောက်အကူပြုပါသည်။
“ `