ટોરોન્ટો (કેનેડા): મોટા ભાગના ભાગ માટે, સમકાલીન કટોકટી વ્યવસ્થાપનનું ધ્યાન કુદરતી, તકનીકી અને માનવ-સર્જિત જોખમો જેમ કે પૂર, ધરતીકંપ, ટોર્નેડો, ઔદ્યોગિક અકસ્માતો, ભારે હવામાનની ઘટનાઓ અને સાયબર હુમલાઓ પર કેન્દ્રિત છે. જો કે, કૃત્રિમ બુદ્ધિની ઉપલબ્ધતા અને ક્ષમતાઓમાં વધારો થવાથી, અમે ટૂંક સમયમાં જ આ તકનીકોથી સંબંધિત જાહેર સલામતી જોખમો જોઈ શકીએ છીએ જેને આપણે ઘટાડવાની અને તૈયારી કરવાની જરૂર પડશે.
AI એ સ્કેલ પર જોખમનું સંભવિત સ્ત્રોત બની રહ્યું છે: છેલ્લા 20 વર્ષોમાં, મારા સાથીદારો અને હું અન્ય ઘણા સંશોધકો સાથે AI નો ઉપયોગ કરીને એવા મોડલ અને એપ્લિકેશનો વિકસાવી રહ્યા છીએ જે કટોકટી પ્રતિભાવ કામગીરી અને નિર્ણય લેવાની જાણ કરવા માટે જોખમોને ઓળખી, આકારણી, આગાહી, મોનિટર અને શોધી શકે. અમે હવે એવા વળાંક પર પહોંચી રહ્યા છીએ જ્યાં AI એ સ્કેલ પર જોખમનું સંભવિત સ્ત્રોત બની રહ્યું છે જેને જોખમ અને કટોકટી વ્યવસ્થાપન તબક્કાઓ ઘટાડવા અથવા નિવારણ, સજ્જતા, પ્રતિભાવ અને પુનઃપ્રાપ્તિમાં સમાવિષ્ટ કરવું જોઈએ.
AI અને જોખમ વર્ગીકરણ: AI જોખમોને બે પ્રકારમાં વર્ગીકૃત કરી શકાય છે: ઇરાદાપૂર્વક અને અજાણતાં. અજાણતાં જોખમો માનવીય ભૂલો અથવા તકનીકી નિષ્ફળતાઓને કારણે થાય છે. જેમ જેમ AI નો ઉપયોગ વધશે તેમ, AI મોડેલોમાં માનવ ભૂલ અથવા AI આધારિત તકનીકોમાં તકનીકી નિષ્ફળતાને કારણે વધુ પ્રતિકૂળ ઘટનાઓ થશે. આ ઘટનાઓ પરિવહન (જેમ કે ડ્રોન, ટ્રેન અથવા સ્વ-ડ્રાઇવિંગ કાર), વીજળી, તેલ અને ગેસ, નાણાં અને બેંકિંગ, કૃષિ, આરોગ્ય અને ખાણકામ સહિતના તમામ પ્રકારના ઉદ્યોગોમાં થઈ શકે છે.
- ઇરાદાપૂર્વકના AI જોખમો એ સંભવિત જોખમો છે જે લોકો અને મિલકતોને નુકસાન પહોંચાડવા માટે AI નો ઉપયોગ કરવાથી થાય છે. AI નો ઉપયોગ સુરક્ષા અને સલામતી પ્રણાલીઓ સાથે સમાધાન કરીને ગેરકાનૂની લાભો મેળવવા માટે પણ થઈ શકે છે. મારા મતે, આ સરળ ઇરાદાપૂર્વક અને અજાણતાં વર્ગીકરણ AI ના કિસ્સામાં પૂરતું ન હોઈ શકે.
- અહીં, આપણે માનવીય નિયંત્રણ અને નિર્ણય લેવાની AIને પછાડવાની સંભાવનાને ઉભરતા જોખમોનો એક નવો વર્ગ ઉમેરવાની જરૂર છે. આ ઇરાદાપૂર્વક અથવા અજાણતાં ટ્રિગર થઈ શકે છે. ઘણા AI નિષ્ણાતો પહેલાથી જ આવા સંભવિત જોખમો સામે ચેતવણી આપી ચૂક્યા છે. AI ના વિકાસ સાથે સંકળાયેલા સંશોધકો, વૈજ્ઞાનિકો અને અન્ય લોકો દ્વારા તાજેતરના એક ખુલ્લા પત્રમાં તેના વધુ વિકાસ પર રોક લગાવવાની હાકલ કરવામાં આવી છે.
જાહેર સલામતી જોખમો: જાહેર સલામતી અને કટોકટી વ્યવસ્થાપન નિષ્ણાતો જોખમોનું મૂલ્યાંકન કરવા અને તેની તુલના કરવા માટે જોખમ મેટ્રિસિસનો ઉપયોગ કરે છે. આ પદ્ધતિનો ઉપયોગ કરીને, જોખમોનું તેમની આવર્તન અને પરિણામના આધારે ગુણાત્મક અથવા માત્રાત્મક મૂલ્યાંકન કરવામાં આવે છે, અને તેમની અસરોને નીચા, મધ્યમ અથવા ઉચ્ચ તરીકે વર્ગીકૃત કરવામાં આવે છે. જોખમો કે જેની આવર્તન ઓછી હોય અને ઓછા પરિણામ અથવા અસર હોય તેને ઓછું જોખમ માનવામાં આવે છે અને તેને સંચાલિત કરવા માટે કોઈ વધારાની ક્રિયાઓની જરૂર નથી. મધ્યમ પરિણામ અને મધ્યમ આવર્તન ધરાવતા જોખમોને મધ્યમ જોખમ ગણવામાં આવે છે. આ જોખમો પર નજીકથી દેખરેખ રાખવાની જરૂર છે.
- ઉચ્ચ આવર્તન અથવા ઉચ્ચ પરિણામ સાથેના જોખમો અથવા પરિણામ અને આવર્તન બંનેમાં ઉચ્ચ જોખમોને ઉચ્ચ જોખમ તરીકે વર્ગીકૃત કરવામાં આવે છે. વધારાના જોખમ ઘટાડા અને શમનના પગલાં લઈને આ જોખમોને ઘટાડવાની જરૂર છે. તાત્કાલિક અને યોગ્ય પગલાં લેવામાં નિષ્ફળતાના પરિણામે ગંભીર માનવ અને સંપત્તિનું નુકસાન થઈ શકે છે.
- અત્યાર સુધી, AI એપ્લીકેશનના સંગઠનાત્મક ઉપયોગથી આગળ એઆઈના જોખમો અને જોખમોને જોખમ મૂલ્યાંકન મેટ્રિસિસમાં ઉમેરવામાં આવ્યા નથી. સમય આવી ગયો છે જ્યારે આપણે સ્થાનિક, રાષ્ટ્રીય અને વૈશ્વિક જોખમો અને કટોકટી વ્યવસ્થાપનમાં સંભવિત AI જોખમોને ઝડપથી લાવવાનું શરૂ કરવું જોઈએ.
AI જોખમ મૂલ્યાંકન: વિવિધ ક્ષેત્રોમાં સંસ્થાઓ, સંસ્થાઓ અને કંપનીઓ દ્વારા AI ટેક્નોલોજીનો વધુ વ્યાપક ઉપયોગ થઈ રહ્યો છે અને AI સાથે સંકળાયેલા જોખમો બહાર આવવા લાગ્યા છે. 2018 માં, એકાઉન્ટિંગ ફર્મ KPMG એ AI રિસ્ક એન્ડ કંટ્રોલ્સ મેટ્રિક્સ વિકસાવ્યું હતું. તે વ્યવસાયો દ્વારા AI નો ઉપયોગ કરવાના જોખમોને પ્રકાશિત કરે છે અને તેમને આ નવા ઉભરતા જોખમોને ઓળખવા વિનંતી કરે છે. રિપોર્ટમાં ચેતવણી આપવામાં આવી છે કે AI ટેક્નોલોજી ખૂબ જ ઝડપથી આગળ વધી રહી છે અને તે સિસ્ટમને ડૂબી જાય તે પહેલાં જોખમ નિયંત્રણના પગલાં લેવા જોઈએ.
- સરકારોએ AI-આધારિત તકનીકો અને ઉકેલોના ઉપયોગ માટે જોખમ મૂલ્યાંકન માર્ગદર્શિકા વિકસાવવાનું પણ શરૂ કર્યું છે. જો કે, આ માર્ગદર્શિકા અલ્ગોરિધમિક પૂર્વગ્રહ અને વ્યક્તિગત અધિકારોના ઉલ્લંઘન જેવા જોખમો સુધી મર્યાદિત છે. સરકારી સ્તરે, કેનેડાની સરકારે એ સુનિશ્ચિત કરવા માટે કે ફેડરલ સંસ્થાઓ એઆઈ સિસ્ટમ્સ સાથે સંકળાયેલા જોખમોને ઓછું કરે અને યોગ્ય ગવર્નન્સ મિકેનિઝમ્સ બનાવે તે સુનિશ્ચિત કરવા માટે ઓટોમેટેડ ડિસિઝન મેકિંગ પર ડાયરેક્ટિવ જારી કર્યું.
- નિર્દેશનો મુખ્ય ઉદ્દેશ્ય એ સુનિશ્ચિત કરવાનો છે કે જ્યારે AI સિસ્ટમ્સ તૈનાત કરવામાં આવે ત્યારે ગ્રાહકો, ફેડરલ સંસ્થાઓ અને કેનેડિયન સમાજ માટેના જોખમો ઓછા થાય. આ નિર્દેશ અનુસાર, સરકારી સુરક્ષા અંગેની નીતિ અનુસાર યોગ્ય સુરક્ષા વ્યવસ્થાઓ ઉપલબ્ધ છે તેની ખાતરી કરવા માટે દરેક વિભાગ દ્વારા જોખમનું મૂલ્યાંકન કરવું આવશ્યક છે.
- 2021 માં, યુએસ કોંગ્રેસે ડિપાર્ટમેન્ટ ઓફ ડિફેન્સ માટે AI રિસ્ક મેનેજમેન્ટ ફ્રેમવર્ક વિકસાવવા માટે નેશનલ ઇન્સ્ટિટ્યૂટ ઑફ સ્ટાન્ડર્ડ્સ એન્ડ ટેક્નોલોજીને કામ સોંપ્યું હતું. સૂચિત સ્વૈચ્છિક AI જોખમ મૂલ્યાંકન માળખું અસ્વીકાર્ય જોખમો રજૂ કરતી AI સિસ્ટમ્સના ઉપયોગ પર પ્રતિબંધ મૂકવાની ભલામણ કરે છે.
ધમકીઓ અને સ્પર્ધા: AI પરની મોટાભાગની રાષ્ટ્રીય સ્તરની નીતિ રાષ્ટ્રીય સુરક્ષા અને વૈશ્વિક સ્પર્ધાના પરિપ્રેક્ષ્યમાં રાષ્ટ્રીય સુરક્ષા અને AI ટેક્નોલોજીમાં પાછળ પડવાના આર્થિક જોખમો પર કેન્દ્રિત છે. આર્ટિફિશિયલ ઈન્ટેલિજન્સ પરના યુએસ નેશનલ સિક્યુરિટી કમિશને એઆઈ સાથે સંકળાયેલા રાષ્ટ્રીય સુરક્ષા જોખમોને પ્રકાશિત કર્યા છે. આ ટેક્નોલોજીના જાહેર જોખમોથી નહીં, પરંતુ ચીન સહિત અન્ય દેશોમાં AI વિકાસ માટેની વૈશ્વિક સ્પર્ધામાં હારી જવાથી હતા.
- તેના 2017 ગ્લોબલ રિસ્ક રિપોર્ટમાં, વર્લ્ડ ઇકોનોમિક ફોરમે હાઇલાઇટ કર્યું હતું કે, AI એ ઉભરતી તકનીકોમાંની એક છે જે વૈશ્વિક જોખમને વધારી શકે છે. AI દ્વારા ઊભા થયેલા જોખમોનું મૂલ્યાંકન કરતી વખતે, અહેવાલમાં તારણ કાઢ્યું હતું કે, તે સમયે, સુપર-બુદ્ધિશાળી AI સિસ્ટમો સૈદ્ધાંતિક ખતરો બની રહે છે. જો કે, નવીનતમ ગ્લોબલ રિસ્ક રિપોર્ટ 2023 એ AI અને AI સાથે સંકળાયેલા જોખમોનો ઉલ્લેખ પણ કરતું નથી જેનો અર્થ છે કે વૈશ્વિક કંપનીઓના નેતાઓ કે જેઓ વૈશ્વિક જોખમ અહેવાલમાં ઇનપુટ પ્રદાન કરે છે તેઓ AI ને તાત્કાલિક જોખમ તરીકે જોતા નથી.
નીતિ કરતાં વધુ ઝડપી: AI વિકાસ જોખમોને સમજવા, પૂર્વદર્શન અને સંચાલનમાં સરકાર અને કોર્પોરેટ નીતિઓ કરતાં ઘણી ઝડપથી આગળ વધી રહ્યો છે. વર્તમાન વૈશ્વિક પરિસ્થિતિઓ, AI ટેક્નોલૉજી માટે બજારની સ્પર્ધા સાથે જોડાયેલી, સરકારો માટે જોખમ શાસન પદ્ધતિને અટકાવવા અને વિકસાવવાની તક વિશે વિચારવું મુશ્કેલ બનાવે છે. જ્યારે આપણે સામૂહિક રીતે અને સક્રિયપણે આવી શાસન પદ્ધતિઓ માટે પ્રયાસ કરવો જોઈએ, ત્યારે આપણે બધાએ આપણી સિસ્ટમો અને સમાજો પર મોટી આપત્તિજનક AI ની અસરો માટે સંભોગ કરવાની જરૂર છે.
આ પણ વાંચો: