ಕರ್ನಾಟಕ

karnataka

ETV Bharat / science-and-technology

AI ನಿಂದ ವ್ಯವಸ್ಥೆಯ ಮೇಲೆ ಸಂಭಾವ್ಯ ಅಪಾಯ ತಡೆಗೆ ಕ್ರಮ ಅಗತ್ಯ: ತಜ್ಞರ ಪ್ರತಿಪಾದನೆ

ಎಐ ತಂತ್ರಜ್ಞಾನ ಬೆಳವಣಿಗೆ ಹೊಂದಿದಂತೆ ಸಮಾಜ ಹಾಗೂ ನಮ್ಮ ವ್ಯವಸ್ಥೆಗಳ ಮೇಲೆ ಅದರಿಂದ ಎದುರಾಗಬಹುದಾದ ಪ್ರತಿಕೂಲ ಪರಿಣಾಮಗಳ ಬಗ್ಗೆ ಜಾಗರೂಕತೆ ವಹಿಸುವುದು ಅಗತ್ಯವೆಂದು ತಂತ್ರಜ್ಞಾನ ತಜ್ಞರು ಪ್ರತಿಪಾದಿಸಿದ್ದಾರೆ.

We need to prepare for the public safety hazards posed by artificial intelligence
We need to prepare for the public safety hazards posed by artificial intelligence

By

Published : May 15, 2023, 4:48 PM IST

ಟೊರೊಂಟೊ (ಕೆನಡಾ):ಬಹುತೇಕ ಕಾಲಾವಧಿಯಲ್ಲಿ ತುರ್ತು ನಿರ್ವಹಣೆಯ ವಿಷಯವು ನೈಸರ್ಗಿಕ, ತಾಂತ್ರಿಕ ಮತ್ತು ಮಾನವ ನಿರ್ಮಿತ ಅಪಾಯಗಳಾದ ಪ್ರವಾಹ, ಭೂಕಂಪಗಳು, ಸುಂಟರಗಾಳಿಗಳು, ಕೈಗಾರಿಕಾ ಅಪಘಾತಗಳು, ವಿಪರೀತ ಹವಾಮಾನ ಘಟನೆಗಳು ಮತ್ತು ಸೈಬರ್ ದಾಳಿಗಳ ಸುತ್ತ ಕೇಂದ್ರೀಕೃತವಾಗಿರುತ್ತದೆ. ಆದಾಗ್ಯೂ, ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯ ತಯಾರಿಕೆ ಮತ್ತು ಅದರ ಸಾಮರ್ಥ್ಯಗಳ ಹೆಚ್ಚಳದೊಂದಿಗೆ ಈ ತಂತ್ರಜ್ಞಾನಗಳಿಗೆ ಸಂಬಂಧಿಸಿದಂತೆ ಸಾರ್ವಜನಿಕ ಸುರಕ್ಷತಾ ಅಪಾಯಗಳು ಶೀಘ್ರದಲ್ಲೇ ಎದುರಾಗಬಹುದು ಮತ್ತು ಇಂಥದೊಂದು ಪರಿಸ್ಥಿತಿಯನ್ನು ಎದುರಿಸಲು ಕೂಡ ನಾವು ಸಿದ್ಧವಾಗಿರಬೇಕಾಗುತ್ತದೆ.

ಕಳೆದ 20 ವರ್ಷಗಳಿಂದ ಅನೇಕ ಸಂಶೋಧಕರು ತುರ್ತು ಪ್ರತಿಕ್ರಿಯೆ ಕಾರ್ಯಾಚರಣೆಗಳು ಮತ್ತು ನಿರ್ಧಾರ ತೆಗೆದುಕೊಳ್ಳುವಿಕೆಯನ್ನು ತಿಳಿಸಲು ಅಪಾಯಗಳನ್ನು ಗುರುತಿಸಲು, ನಿರ್ಣಯಿಸಲು, ಊಹಿಸಲು, ಮೇಲ್ವಿಚಾರಣೆ ಮಾಡಲು ಮತ್ತು ಪತ್ತೆಹಚ್ಚಲು ಮಾದರಿಗಳು ಮತ್ತು ಅಪ್ಲಿಕೇಶನ್‌ಗಳನ್ನು ಅಭಿವೃದ್ಧಿಪಡಿಸಲು AI ಅನ್ನು ತಯಾರಿಸುತ್ತಿದ್ದಾರೆ. ಆದರೆ ಈಗ ಎಐ ಸ್ವತಃ ಒಂದು ಹೊಸ ಅಪಾಯವಾಗಿ ಪರಿಣಮಿಸುತ್ತಿದೆ.

AI ಮತ್ತು ಅಪಾಯದ ವರ್ಗೀಕರಣ: AI ಅಪಾಯಗಳನ್ನು ಎರಡು ವಿಧಗಳಾಗಿ ವರ್ಗೀಕರಿಸಬಹುದು: ಉದ್ದೇಶಪೂರ್ವಕ ಮತ್ತು ಉದ್ದೇಶಪೂರ್ವಕವಲ್ಲದ ಅಪಾಯ. ಉದ್ದೇಶಪೂರ್ವಕವಲ್ಲದ ಅಪಾಯಗಳು ಮಾನವ ದೋಷಗಳು ಅಥವಾ ತಾಂತ್ರಿಕ ವೈಫಲ್ಯಗಳಿಂದ ಉಂಟಾಗುತ್ತವೆ. AI ಬಳಕೆಯು ಹೆಚ್ಚಾದಂತೆ AI ಮಾದರಿಗಳಲ್ಲಿ ಮಾನವ ದೋಷ ಅಥವಾ AI ಆಧಾರಿತ ತಂತ್ರಜ್ಞಾನಗಳಲ್ಲಿನ ತಾಂತ್ರಿಕ ವೈಫಲ್ಯಗಳಿಂದ ಉಂಟಾಗುವ ಹೆಚ್ಚಿನ ಪ್ರತಿಕೂಲ ಘಟನೆಗಳು ಕಂಡುಬರುತ್ತವೆ. ಸಾರಿಗೆ (ಡ್ರೋನ್‌ಗಳು, ರೈಲುಗಳು ಅಥವಾ ಸ್ವಯಂ ಚಾಲಿತ ಕಾರುಗಳು), ವಿದ್ಯುತ್, ತೈಲ ಮತ್ತು ಅನಿಲ, ಹಣಕಾಸು ಮತ್ತು ಬ್ಯಾಂಕಿಂಗ್, ಕೃಷಿ, ಆರೋಗ್ಯ ಮತ್ತು ಗಣಿಗಾರಿಕೆ ಸೇರಿದಂತೆ ಎಲ್ಲಾ ರೀತಿಯ ಉದ್ಯಮಗಳಲ್ಲಿ ಇಂಥ ಘಟನೆಗಳು ಸಂಭವಿಸಬಹುದು.

ಉದ್ದೇಶಪೂರ್ವಕ AI ಅಪಾಯಗಳ ಬಗ್ಗೆ ಹೇಳುವುದಾದರೆ, ಇವು ಜನರು ಮತ್ತು ಆಸ್ತಿ ಪಾಸ್ತಿಗಳಿಗೆ ಹಾನಿ ಮಾಡಲು AI ಅನ್ನು ಬಳಸುವ ಅಪಾಯವಾಗಿವೆ. ಭದ್ರತೆ ಮತ್ತು ಸುರಕ್ಷತಾ ವ್ಯವಸ್ಥೆಗಳನ್ನು ರಾಜಿ ಮಾಡಿಕೊಳ್ಳುವ ಮೂಲಕ ಕಾನೂನುಬಾಹಿರ ಪ್ರಯೋಜನಗಳನ್ನು ಪಡೆಯಲು AI ಅನ್ನು ಬಳಸಬಹುದು. ನನ್ನ ದೃಷ್ಟಿಯಲ್ಲಿ, ಈ ಸರಳ ಉದ್ದೇಶಪೂರ್ವಕ ಮತ್ತು ಉದ್ದೇಶಪೂರ್ವಕವಲ್ಲದ ವರ್ಗೀಕರಣವು AI ಸಂದರ್ಭದಲ್ಲಿ ಸಾಕಾಗುವುದಿಲ್ಲ.

ಇಲ್ಲಿ ನಾವು ಹೊಸದೊಂದು ರೀತಿಯ ಸಂಭಾವ್ಯ ಬೆದರಿಕೆಗಳನ್ನು ಸೇರಿಸುವ ಅಗತ್ಯವಿದೆ. AI ಮಾನವ ನಿಯಂತ್ರಣ ಮತ್ತು ನಿರ್ಧಾರವನ್ನು ಹಿಂದಿಕ್ಕುವ ಸಾಧ್ಯತೆಯಿದೆ. ಇಂಥದದೊಂದು ಪ್ರಚೋದನೆಯು ಉದ್ದೇಶಪೂರ್ವಕವಾಗಿ ಅಥವಾ ಅನುದ್ದೇಶಪೂರ್ವಕವಾಗಿ ಆಗಬಹುದು. ಇಂಥ ಸಂಭಾವ್ಯ ಬೆದರಿಕೆಗಳ ವಿರುದ್ಧ ಅನೇಕ AI ತಜ್ಞರು ಈಗಾಗಲೇ ಎಚ್ಚರಿಕೆ ನೀಡಿದ್ದಾರೆ. AI ಯ ಅಭಿವೃದ್ಧಿಯಲ್ಲಿ ತೊಡಗಿರುವ ಸಂಶೋಧಕರು, ವಿಜ್ಞಾನಿಗಳು ಮತ್ತು ಇತರರು ಇತ್ತೀಚೆಗೆ ಬಹಿರಂಗ ಪತ್ರವೊಂದನ್ನು ಬರೆದು, ಮುಂದಿನ ದಿನಗಳಲ್ಲಿ ಎಐ ತಂತ್ರಜ್ಞಾನದ ಬೆಳವಣಿಗೆಯನ್ನು ಸ್ಥಗಿತಗೊಳಿಸಬೇಕೆಂದು ಕೋರಿದ್ದಾರೆ.

ಸಾರ್ವಜನಿಕ ಸುರಕ್ಷತೆಗೆ ಸಂಭಾವ್ಯ ಅಪಾಯಗಳು: ಸಾರ್ವಜನಿಕ ಸುರಕ್ಷತೆ ಮತ್ತು ತುರ್ತು ನಿರ್ವಹಣಾ ತಜ್ಞರು ಅಪಾಯಗಳನ್ನು ನಿರ್ಣಯಿಸಲು ಮತ್ತು ಹೋಲಿಸಲು ಅಪಾಯದ ಮ್ಯಾಟ್ರಿಕ್ಸ್ ಅನ್ನು ಬಳಸುತ್ತಾರೆ. ಈ ವಿಧಾನವನ್ನು ಬಳಸಿಕೊಂಡು, ಅಪಾಯಗಳನ್ನು ಅವುಗಳ ಆವರ್ತನ ಮತ್ತು ಪರಿಣಾಮದ ಆಧಾರದ ಮೇಲೆ ಗುಣಾತ್ಮಕವಾಗಿ ಅಥವಾ ಪರಿಮಾಣಾತ್ಮಕವಾಗಿ ನಿರ್ಣಯಿಸಲಾಗುತ್ತದೆ.

ಅವುಗಳ ಪರಿಣಾಮಗಳನ್ನು ಕಡಿಮೆ, ಮಧ್ಯಮ ಅಥವಾ ಹೆಚ್ಚಿನ ಎಂದು ವರ್ಗೀಕರಿಸಲಾಗುತ್ತದೆ. ಕಡಿಮೆ ಆವರ್ತನ ಮತ್ತು ಕಡಿಮೆ ಪರಿಣಾಮ ಅಥವಾ ಪ್ರಭಾವವನ್ನು ಹೊಂದಿರುವ ಅಪಾಯಗಳನ್ನು ಕಡಿಮೆ ಅಪಾಯವೆಂದು ಪರಿಗಣಿಸಲಾಗುತ್ತದೆ ಮತ್ತು ಅವುಗಳನ್ನು ನಿರ್ವಹಿಸಲು ಯಾವುದೇ ಹೆಚ್ಚುವರಿ ಕ್ರಮಗಳ ಅಗತ್ಯವಿಲ್ಲ. ಮಧ್ಯಮ ಪರಿಣಾಮ ಮತ್ತು ಮಧ್ಯಮ ಆವರ್ತನವನ್ನು ಹೊಂದಿರುವ ಅಪಾಯಗಳನ್ನು ಮಧ್ಯಮ ಅಪಾಯವೆಂದು ಪರಿಗಣಿಸಲಾಗುತ್ತದೆ. ಈ ಅಪಾಯಗಳನ್ನು ನಿಕಟವಾಗಿ ಮೇಲ್ವಿಚಾರಣೆ ಮಾಡುವ ಅಗತ್ಯವಿದೆ.

ಸಂಭಾವ್ಯ ಅಪಾಯಗಳ ಬಗ್ಗೆ ಜಾಗೃತಿ ಅಗತ್ಯ: ಅಪಾಯಗಳನ್ನು ಅರ್ಥಮಾಡಿಕೊಳ್ಳುವಲ್ಲಿ, ಸಂಭಾವ್ಯ ಅಪಾಯಗಳನ್ನು ತಿಳಿಯುವಲ್ಲಿ ಮತ್ತು ನಿರ್ವಹಿಸುವಲ್ಲಿ AI ಅಭಿವೃದ್ಧಿಯು ಸರ್ಕಾರ ಮತ್ತು ಕಾರ್ಪೊರೇಟ್ ನೀತಿಗಳಿಗಿಂತ ಹೆಚ್ಚು ವೇಗವಾಗಿ ಪ್ರಗತಿಯಲ್ಲಿದೆ. ಪ್ರಸ್ತುತ ಜಾಗತಿಕ ಪರಿಸ್ಥಿತಿಗಳು, AI ತಂತ್ರಜ್ಞಾನಗಳ ಮಾರುಕಟ್ಟೆ ಸ್ಪರ್ಧೆಯೊಂದಿಗೆ ಸೇರಿಕೊಂಡು, ಅಪಾಯದ ಆಡಳಿತ ಕಾರ್ಯವಿಧಾನಗಳನ್ನು ವಿರಾಮಗೊಳಿಸಲು ಮತ್ತು ಅಭಿವೃದ್ಧಿಪಡಿಸಲು ಸರ್ಕಾರಗಳಿಗೆ ಅವಕಾಶವನ್ನು ಯೋಚಿಸುವುದು ಕಷ್ಟಕರವಾಗಿದೆ. ಸದ್ಯದ ಜಾಗತಿಕ ಸ್ಥಿತಿಗತಿಗಳು, ಎಐ ತಂತ್ರಜ್ಞಾನದಲ್ಲಿನ ಪೈಪೋಟಿ ಇವುಗಳೆಲ್ಲವನ್ನೂ ನೋಡಿದರೆ ಇವನ್ನು ನಿಯಂತ್ರಿಸಲು ಸರ್ಕಾರಗಳು ಮುಂದಾಗಬಹುದು ಎಂದು ಯೋಚಿಸಲು ಸಹ ಸಾಧ್ಯವಿಲ್ಲ ಎನಿಸುತ್ತದೆ. ಆದರೆ ಎಐ ನಿಂದ ನಮ್ಮ ಸಮಾಜ ಮತ್ತು ವ್ಯವಸ್ಥೆಯ ಮೇಲಾಗಬಹುದಾದ ಸಂಭಾವ್ಯ ಅಪಾಯಗಳ ಬಗ್ಗೆ ಜಾಗ್ರತೆ ವಹಿಸುವುದು ಬಹಳ ಅಗತ್ಯವಾಗಿದೆ.

ಇದನ್ನೂ ಓದಿ : ಸೀಟ್ ಬೆಲ್ಟ್ ಅಲಾರ್ಮ್ ಸ್ಟಾಪರ್ ಮಾರಾಟ ನಿಲ್ಲಿಸುವಂತೆ ಇ -ಕಾಮರ್ಸ್​ ಪ್ಲಾಟ್​ಫಾರ್ಮ್​ಗಳಿಗೆ ಆದೇಶ

ABOUT THE AUTHOR

...view details