අප පසුකරමින් සිටින්නේ කෘත්රිම බුද්ධිය යා යුතු මඟ කුමක් දැ යි තෝරා බේරා ගැනීම ගැන අදහස් උදහස් ලොව නන් දෙසින් ඇසෙන සමයක්. කෘත්රිම බුද්ධියේ ‘ගොඩ්ෆාදර්’ ලෙස හැඳින්වෙන Geoffrey Hinton වැනි පුරෝගාමී විද්යාඥයන් පවා ‘මේක ඉස්සරහට කොහොම වැඩ කරයි ද දන්නෙ නෑ’යි අනතුරු අඟවද්දී කෘත්රිම බුද්ධියට මඳක් විවේක දිය යුතු නැති ද? මිනිසා හරිහැටි අවබෝධ කරගන්නට සමත් නො වූ මාවතක් දිගේ ඉදිරියට යන කෘත්රිම බුද්ධිය මේච්චල් කර ගැනීම කළ හැකි දෙයක් ද? මහා බ්රිතාන්යයේ අගමැති රිෂි සුනාක් මේ ගැන බරපතළ ලෙස සිතන්නට පටන්ගෙන ඇති බව පසුගිය සති කිහිපය පුරා එරට දී පැවැත්වුණු AI Safety Summit හෙවත් ‘කෘත්රිම බුද්ධි ආරක්ෂණ සමුළුව’ දෙස බලද්දී පෙනී යනවා.
පසුගිය නොවැම්බර් 01 සහ 02 දෙ දින තුළ එංගලන්තයේ Bletchley Parkහි පැවැති මෙම සමුළුව කරුණු කිහිපයක් නිසා වැදගත් වනවා. කෘත්රිම බුද්ධියෙන් මතු වන අභියෝග සහ අවදානම් සහගත අවස්ථා පාලනය කරගැනීමට ජාත්යන්තර සහයෝගයකින් ක්රියා කිරීම පිණිස එකඟත්වයක් ඇති කරගැනීම ඉන් කැපී පෙනෙනවා. බ්ලෙච්ලේ ප්රකාශනය ලෙස හැඳින්වෙන එය ඇමරිකා එක්සත් ජනපදය, චීනය, යුරෝපා සංවිධානය ඇතුළු රටවල් 28ක නියෝජනයන්ගෙන් යුතු වීම විශේෂත්වයක්. අපරාධ, යුදමය හෝ ත්රස්ථ ක්රියාවලට කෘත්රිම බුද්ධිය භාවිතා වීමේ දුර්විභවයන් පිළිබඳ ව මෙන් ම සමස්ත මානව සංහතියේ පැවැත්මට පැන නැඟිය හැකි අවදානම ගැන ද මෙහි දී අවධානය යොමු වුණා.
මෙයට සමගාමී ව ඇමරිකානු ජනාධිපති ජෝ බයිඩන් ද විධායක නියෝගයක් (executive order) නිකුත් කරමින් එරට සියලු ‘කෘත්රිම බුද්ධි සංවර්ධකයන්’ වෙත නියෝග කළේ සිය පද්ධතීන්ගේ සුරක්ෂිතතා පරීක්ෂණවල ප්රතිඵල රජය වෙත ඉදිරිපත් කළ යුතු බවයි. කෘත්රිම බුද්ධි පාදක යෙදවුම්වල සුරක්ෂිත මෙන් ම විශ්වාසදායී බව සහතික කළ හැකි ප්රමිතීන් සහ තත්ත්ව පරීක්ෂණ සැලසුම් කිරීම එරට ජාතික ප්රමිති සහ තාක්ෂණ ආයතනය වෙත පැවරීමත්, ස්වදේශ ආරක්ෂණ දෙපාර්තමේන්තුවට (Dept. of Homeland Security) AI Safety and Security Board හෙවත් ‘කෘත්රිම බුද්ධි සුරක්ෂිතතා හා ආරක්ෂණ මණ්ඩලය’ක් තැනීමට පැවරීමත් ඉන් සිදු වුණා.
කෙසේ නමුත් මේ ව්යායාම දෙක දෙස විෂය ප්රාමාණිකයන් බලන්නේ මිශ්ර හැඟීමෙන් බව පෙනෙන්නට තිබුණා. ‘අරක කරමු; මේක කරමු’ ආදී ප්රකාශයන් මිස සැබෑ පැහැදිලි වැඩපිළිවෙළක් ඒවායේ ගැබ් ව පවතී ද යන විචිකිච්ඡාව ඔවුන් තුළ අරක් ගෙන තිබෙනවා. New Scientist සිය ‘විශ්ලේෂණ’ තීරුවේ පෙළගස්වා ඇති පරිදි එයට සාධාරණ හේතු කිහිපයක් ම තිබෙනවා.
සමුළුවේ දෙ වන දිනය ආරම්භ කරමින් ජනමාධ්යවේදීන් ඉදිරියේ කතා කළ සුනාක් පවසා සිටියේ ජනතාව කෘත්රිම බුද්ධිය ගැන ‘සංත්රාසය දනවන’ ප්රකාශයන්ගෙන් වැළකී සිටිය යුතු බවයි. ඉන් සුළු මොහොතක ඇවෑමෙන් කෘත්රිම බුද්ධිය, න්යෂ්ටික යුද්ධය තරම් ම බියජනක විය හැකි බව ඔහු ම පවසා තිබුණා. ඉතින්, එය ම පැටලිලි සහගත ආරම්භයක් නො වන්නේ ද?
වර්ථමානයේ පවතින ව්යාකූල ගෝලීය දේශපාලන සිතියම මත පිහිටා වුව පරස්පර අදහස් ඇති බලකඳවුරු එක අරමුණක් වෙනුවෙන් එකතු වීම අගය කළ යුතු කරුණක් බව අවිවාදිතයි. නමුත් විශ්ලේෂකයන් පෙන්වා දෙන පරිදි ඉන් ගැනුණු එක ම ස්ථිරසාර තීරණය නම් අනාගතයේ මේ පිළිබඳ සාකච්ඡා කිරීම සඳහා තව තවත් සමුළු පැවැත්වීමයි. මේ මුළු සමුළුවේ ම කතිකා කරගත් දෑ ChatGPT ඔස්සේ ලියවාගෙන ඊමේල් මඟින් යවාගත්තා නම් දුරු කතර ගෙවා එහි පැමිණි නියෝජිතයන්ගේ ජෙට්වලින් එකතු වූ කාබන් විමෝචනයවත් අඩු කරගන්නට තිබූ බව වඩාත් සැරට ලියැවී ඇති New Scientist විශ්ලේෂණ ලිපිය පෙන්වා දෙනවා.
සමුළුවට සහභාගී වන මෙන් ආරාධනා නො ලැබ සිටි කෘත්රිම බුද්ධි සදාචාරවේදිනියක වන ඔක්ස්ෆර්ඩ් විශ්වවිද්යාලයේ සහකාර මහාචාර්ය Carissa Véliz පවසන්නේ තමා ‘තව තවත් සමුළු ගැන සහතික වන සමුළුවකින්’ සෑහීමකට පත් නො වන බවයි. කෘත්රිම බුද්ධිය නියාමනය කළ හැකි නෛතික රාමුවක් නිමවීම සහ ගෝලීය වශයෙන් එකඟත්වයකට පැමිණීම අප හැම දා ම පරක්කු කළ දෙයක් බව ඇය අවධාරණය කරනවා. කෘත්රිම බුද්ධි යෙදවුම්වල ශිඝ්ර සංවර්ධනය සහ ස්ථාපනය හේතුවෙන් අනාගතයේ තවත් සමුළුවක් පැවැත්වීම ඇල්මැරුණු ක්රියා පිළිවෙතක් වනු ඇති බවයි ඇගේ අදහස.
සත්ය හෙට්ටිආරච්චි