Categories
булангууд мэдээ шинжлэх-ухаан-технологи

Хиймэл оюун ухаан хөгжүүлэхийг түр зогсоохыг уриалав DNN.mn

Хиймэл оюун ухаан хөгжүүлэх ажлыг түүчээлж буй хүмүүсийн төлөөлөл болох Илон Маск, “Apple” компанийг үүсгэн байгуулагчдын нэг Стив Возняк нар аюулгүй байдлын журам боловсруулж, хэрэгжүүлэх хүртэл хиймэл оюун ухааны хөгжлийг түр зогсоохыг санал болгосон байна.Тэдний уриалгад энэ салбарын мянга гаруй тэргүүлэх бизнес эрхлэгч, шинжээчид гарын үсэг зурсан нээлттэй захидлыг “Амьдралын ирээдүй” ашгийн бус судалгааны хүрээлэн нийтлүүлжээ.

Америкийн “OpenAI” судалгааны лаборатори өнөөг хүртэл гарч байгаагүй шинэ хиймэл оюун ухаан хэрхэн бий болгох, хамгийн дэвшилтэт программ болох “GPT-4” чатботын дэлгэрэнгүй мэдээллийг нийтэд ил болгосноос хойш ердөө хоёр долоо хоногийн дараа уг захидал нийтлэгдэж, захидлын эзэд GPT-4 чатботоос илүү хүчирхэг сургалтын системийг нийтэд ил болгох ажлыг зургаан сарын хугацаанд хойшлуулахыг уриалсан байна. Учир нь “Google” хүртэл өөрийн “Bard” чатботыг туршилтын зорилгоор нээгээд байгаа аж.

Энэхүү ил захидалд “OpenAI”-ийг үндэслэгч Сэм Алтманы блогийн “шинэ системүүдийн сургалт эхлэхийн өмнө үүнд бие даасан үнэлгээ хийлгэх нь чухал асуудал байх болно” гэсэн санааг эшлэл болгон авсан байна. Уг захианд “Бид үүнтэй бүрэн санал нийлж байна” гэж нээлттэй захидлын эзэд онцолжээ, “Энэ мөч аль хэдийнэ ирсэн. Хүчирхэг “AI” системийг ашигласны дараа гарах үр дагавар эерэг байх болно гэдэгт итгэлтэй байж, үүнтэй холбоотой эрсдэлийг тооцсоны дараа л хиймэл оюун ухааныг хөгжүүлэн хэрэглэх асуудал яригдах ёстой” гэсэн байна.Өнөөдрийн байдлаар “OpenAI” өөрийн “ChatGPT” чатботны шинэ хувилбарыг гаргаад байгаа бол “Google” “Microsoft”-ын “ChatGPT” боттой өрсөлдөх “Bard” чатботыг танилцуулсан. ”Google”-ийн программчид “Хиймэл оюун ухаантай чатбот бол мэдрэмжтэй амьтан” гэдгийг батлан хэлсэн юм. Иймээс уг захидалд нийгэм, соёл иргэншилд учирч болзошгүй эрсдэлүүдийг нарийвчлан тодорхойлсон судалгаанд үндэслэсэн тусгай журам гарган баталсны дараа хиймэл оюун ухааныг хөгжүүлэн хэрэглэх асуудлыг ярих ёстой гэжээ. Захидалд хиймэл оюун ухаанд суурилсан системүүд хүмүүстэй өрсөлдөж, улмаар эдийн засаг, улс төрийн тэсрэлтэд хүргэж болзошгүй гэдгийг тодорхой жишээ гарган тайлбарласан байна. Тэдний уриалга хүн төрөлхтөн өөрөөсөө асуух ёстой дөрвөн үндсэн асуулттай тулаад байгааг онцолжээ. Эдгээр нь “Бид нийтийн мэдээллийн сувгийг суртал ухуулга, худал хуурмагаар дүүргэхийг машинуудад зөвшөөрөх ёстой юу?”, “Хүмүүст таашаал өгдөг ажлыг нь оруулаад бүх ажлыг машинуудаар хийлгэх ёстой юу?”. “Ирээдүйд биднээс тоо толгой, оюуны чадавхаараа давж, биднийг дорд үзэж, хүмүүсийг орлох хүнээс гаралтай сэтгэлгээг хөгжүүлэх ёстой юу?”, ”Бид соёл иргэншлээ хянах чадвараа алдах эрсдэл үүсгэх ёстой юу?” гэсэн асуултууд юм.

Аюулгүй байдлын найдвартай дүрэм, журам буюу протокол боловсруулж, хэрэгжүүлэхэд зургаан сар хангалттай гэж уг захидалд онцлон дурдсан байна. Гэхдээ захидлын эзэд протоколд дурдсан хоригийн шаардлагыг аль нэг компани биелүүлэхгүй бол дэлхийн Засгийн газрууд уг асуудалд оролцох ёстой гэдгийг онцлон уриалжээ.Сүүлийн үед хиймэл оюун ухааны технологи хяналтгүй хөгжиж байгаад санаа зовниж байгаагаа зөвхөн захидлын эзэд илэрхийлж байгаа явдал биш юм. Тухайлбал, “ChatGPT” гэх мэт дэвшилтэт технологийн ёс зүй, хууль эрх зүйн үр дагаварт санаа зовж буйгаа Европын холбооны цагдаагийн алба “Europol” илэрхийлж, уг системийг “загасчлах” гэх мэт цахим гэмт хэрэг зэрэг олон төрлийн онлайн луйврын хэрэгт ашиглаж болзошгүйг анхааруулаад байгаа юм. “Хиймэл оюун ухаан нь асар их боломжийг нээж өгч, бид бүгдэд илүү сайн ирээдүйг бий болгоход чухал хувь нэмэр оруулж чадна гэдэг нь хэнд ч ойлгомжтой болсон гэж би бодож байна, гэхдээ бид үүнтэй холбоотой эрсдэлүүд болох өрөөсгөл ойлголт, худал мэдээлэл, тэр байтугай хууран мэхлэлт гаарахаас урьдчилан сэргийлэх ёстой. Тиймээс эдгээр технологиудыг тусгай дүрэм журам гарган хяналтад оруулах зайлшгүй шаардлагатай” гэж нууцлалын нэрт мэргэжилтэн Ивана Бартолетти “ВВС”-д өгсөн ярилцлагадаа онцолжээ. Тэрбээр мөн “Бид хэрэглэгчдэд та машинтай харьцаж байгаа, иймээс ямар ч алдаа гарч болно гэдэгт итгэдэг тийм уур амьсгалыг бий болгох хэрэгтэй” гэж хэлжээ.

Хиймэл оюун ухааны технологийг дэмжигчид энэ бүхэн ердийн олон ажлыг хялбарчлахаас гадна мэдээллийн хайлтыг илүү нарийвчлалтай, үр дүнтэй болгож чадна гэж хэлдэг. Тухайлбал, ОХУ-ын Хүмүүнлэгийн их сургуулийн төгсөгч Александр Жадан өнгөрсөн хоёрдугаар сарын эхээр “ChatGPT” ашиглан дипломын ажлаа бичиж, үүндээ ердөө ганц өдөр зарцуулсан тухай Оросын хэвлэл мэдээллийн хэрэгслүүд мэдээлж байсан. Тэрбээр уг дипломын ажлаа хамгаалж, мэргэжлийн диплом авч чадсан. Үүний дараа тус сургуулийн удирдлагууд Жаданы дипломын ажлыг дахин шалгах болно гэж мэдэгдэн, боловсролын байгууллагуудад “Chat­GPT” ашиглахыг хориглох бодолтой байгаагаа ч илэрхийлсэн. “ChatGPT” чатбот нь хариултаа хэрэглэгч бодит хүнтэй харилцаж байгаа мэт хуурмаг байдлыг бий болгож чадахаар бичдэг төдийгүй хэлний өөр өөр бичлэгийн хэлбэрийг ашиглах чадвартай. Гэхдээ хиймэл оюун ухаан хөгжүүлэгчид “ChatGPT”-ыг 2021 оноос хойш хөгжүүлээгүй байгаа учир энэ хугацаанаас өмнө болсон үйл явдал, үзэгдлээр хязгаарлагдах шинэчлэгдээгүй ойлголттой байгааг анхааруулсан байна. Учир нь энэ нь уг хиймэл оюун ухаан бодит байдалтай ямар ч холбоогүй зохиомол хариулт өгөх, логикийн алдаа гаргах зэргээр хэрэглэгчдийг хий хоосон “зэрэглээ”-гээр хуурч болзошгүй гэсэн үг юм.

Хиймэл оюун ухаантай холбоотой ил захидлын тухай “BBC”-ийн нийтлэлийг орчуулан хүргэхэд ийм байна. Харин бодит амьдрал дээр хүмүүсийн янз бүрийн ажил, мэргэжлийг хиймэл оюун ухаан булаана гэдэг бол худал тал нь хэтийдсэн зүйл. Жишээ нь, өнөөдөр аль ч улсын олон хүнтэй өдөр тутмын сонинд “дугаар удирдагч” гэсэн ойлголт бий. Үнэндээ дугаар удирдана гэдэг нь хянаж, хариуцлага хүлээнэ гэсэн үг. Иймээс сэтгүүлч мэргэжил алга болохгүй, эдгээр “дугаар удирдагч” үлдэж бусад нь халагдан цалин нь эдгээр хүмүүс дээр ирнэ. Хуульчид, шүүгчид, зохиолчид, яруу найрагчид, зураачид, ня-бо, эдийн засагчид, кино найруулагч, жүжигчид янз бүрийн салбарын судлаачид бүр цэргийн жанжин штабынхны хувьд ч яг үүнтэй адил үйл явдал давтагдах болно. Мэргэжлийн хэн нэгэн хиймэл оюун ухааны бичсэн, хийсэн зүйлийг үнэлж, хянаж байх шаардлага зайлшгүй гарна. Иймээс хиймэл оюун ухаан хүмүүсийн хяналтаас гарна гэдэг бол бас л хоосон хийрхэл төдий зүйл. Учир нь хиймэл оюун ухааны хийж, бүтээснийг хүн алхам тутамд нь хянаж байнга түүнээс нэг алхмын өмнө явах болно. Харин асуудал үүссэн тохиолдолд хэрхэн шуурхай шийдвэрлэж байх вэ гэдэг бол тусдаа бие даасан хууль, эрх зүйн буюу НҮБ-ын конвенцийн шийдэх асуудал. Гэтэд өнөөдөр НҮБ юу, яасан бие даасан конвенци батлах, түрэмгийлэл үйлдүүлэхгүй байх үндсэн үүргээ ч биелүүлж чадахгүй, Шекспирийн “to be or not to be” гэдэг нь болчихоод байна. Гэхдээ ийм конвенци баталж мөрдөх гэдэг бол цаг хугацааны л асуудал.

Нөгөө талаас хиймэл оюун ухаан цалин, хөлс, эрүүл мэнд, нийгмийн даатгал нэхэхгүй зөвхөн баялаг бүтээнэ. Жишээ нь, өнөөдөр Швейцарь улсад үйлдвэрийнх нь 99,7 хувийг жижиг дунд, үйлдвэр эзэлдэг ч энэ улсын ДНБ-ний тал хувийг л бүрдүүлж харин ажлын байрны 2/3-ыг бий болгодог. Өөрөөр хэлбэл, энэ улсын банк, санхүү, цахилгаан станц, аялал жуулчлал, цаг, тонгорог, хуурай сүү, бяслаг, шоколад гэсэн хэдхэн салбарын олсон мөнгийг жижиг дунд үйлдвэр, үйлчилгээний салбарынхан байнга хөдөлгөөнд оруулан, гүйлгэж байх үүрэг гүйцэтгэж иргэд нь сайхан амьдардаг. Иймээс хиймэл оюун ухааны олсон мөнгийг яг л амьд организмын цусны эргэлттэй адил иргэд гүйлгэж байх үүрэг гүйцэтгэх болно. Иймээс хэн ч байсан ажилгүй болно гэж айх хэрэггүй.Харин ч иргэд нийтэд тус болох өөрсдийн дуртай, сонирхолтой зүйлээ хийн баялаг бүтээгчид болж сайхан амьдарна. Бас одоо байхгүй олон мэргэжлийн ажлын байр ч шинээр бий болно.

Хиймэл оюун ухаан мэдээж худал хуурмаг, хулгай луйвраас хол, үнэн зөв байх ёстой. Үнэн бас зөв байна гэдэг нь үнэндээ нийтийн эрх ашигт нийцэхийг л хэлж байгаа хэрэг. Иймээс хиймэл оюун ухааныг зөв хөгжүүлэх нийтээр мөрдөх ёстой нэгдсэн дүрэм, журам заавал байх ёстой гэдэг бол мэдээж ойлгомжтой зүйл. Харин хий сүржигнэж, бусдыг хоосон зүйлээр айлгах нь өөрөө хууль бус үйлдэл билээ.

Г.АМАРСАНАА

Leave a Reply

Your email address will not be published. Required fields are marked *