ETV Bharat / science-and-technology

AI ನಿಂದ ವ್ಯವಸ್ಥೆಯ ಮೇಲೆ ಸಂಭಾವ್ಯ ಅಪಾಯ ತಡೆಗೆ ಕ್ರಮ ಅಗತ್ಯ: ತಜ್ಞರ ಪ್ರತಿಪಾದನೆ

author img

By

Published : May 15, 2023, 4:48 PM IST

ಎಐ ತಂತ್ರಜ್ಞಾನ ಬೆಳವಣಿಗೆ ಹೊಂದಿದಂತೆ ಸಮಾಜ ಹಾಗೂ ನಮ್ಮ ವ್ಯವಸ್ಥೆಗಳ ಮೇಲೆ ಅದರಿಂದ ಎದುರಾಗಬಹುದಾದ ಪ್ರತಿಕೂಲ ಪರಿಣಾಮಗಳ ಬಗ್ಗೆ ಜಾಗರೂಕತೆ ವಹಿಸುವುದು ಅಗತ್ಯವೆಂದು ತಂತ್ರಜ್ಞಾನ ತಜ್ಞರು ಪ್ರತಿಪಾದಿಸಿದ್ದಾರೆ.

We need to prepare for the public safety hazards posed by artificial intelligence
We need to prepare for the public safety hazards posed by artificial intelligence

ಟೊರೊಂಟೊ (ಕೆನಡಾ): ಬಹುತೇಕ ಕಾಲಾವಧಿಯಲ್ಲಿ ತುರ್ತು ನಿರ್ವಹಣೆಯ ವಿಷಯವು ನೈಸರ್ಗಿಕ, ತಾಂತ್ರಿಕ ಮತ್ತು ಮಾನವ ನಿರ್ಮಿತ ಅಪಾಯಗಳಾದ ಪ್ರವಾಹ, ಭೂಕಂಪಗಳು, ಸುಂಟರಗಾಳಿಗಳು, ಕೈಗಾರಿಕಾ ಅಪಘಾತಗಳು, ವಿಪರೀತ ಹವಾಮಾನ ಘಟನೆಗಳು ಮತ್ತು ಸೈಬರ್ ದಾಳಿಗಳ ಸುತ್ತ ಕೇಂದ್ರೀಕೃತವಾಗಿರುತ್ತದೆ. ಆದಾಗ್ಯೂ, ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯ ತಯಾರಿಕೆ ಮತ್ತು ಅದರ ಸಾಮರ್ಥ್ಯಗಳ ಹೆಚ್ಚಳದೊಂದಿಗೆ ಈ ತಂತ್ರಜ್ಞಾನಗಳಿಗೆ ಸಂಬಂಧಿಸಿದಂತೆ ಸಾರ್ವಜನಿಕ ಸುರಕ್ಷತಾ ಅಪಾಯಗಳು ಶೀಘ್ರದಲ್ಲೇ ಎದುರಾಗಬಹುದು ಮತ್ತು ಇಂಥದೊಂದು ಪರಿಸ್ಥಿತಿಯನ್ನು ಎದುರಿಸಲು ಕೂಡ ನಾವು ಸಿದ್ಧವಾಗಿರಬೇಕಾಗುತ್ತದೆ.

ಕಳೆದ 20 ವರ್ಷಗಳಿಂದ ಅನೇಕ ಸಂಶೋಧಕರು ತುರ್ತು ಪ್ರತಿಕ್ರಿಯೆ ಕಾರ್ಯಾಚರಣೆಗಳು ಮತ್ತು ನಿರ್ಧಾರ ತೆಗೆದುಕೊಳ್ಳುವಿಕೆಯನ್ನು ತಿಳಿಸಲು ಅಪಾಯಗಳನ್ನು ಗುರುತಿಸಲು, ನಿರ್ಣಯಿಸಲು, ಊಹಿಸಲು, ಮೇಲ್ವಿಚಾರಣೆ ಮಾಡಲು ಮತ್ತು ಪತ್ತೆಹಚ್ಚಲು ಮಾದರಿಗಳು ಮತ್ತು ಅಪ್ಲಿಕೇಶನ್‌ಗಳನ್ನು ಅಭಿವೃದ್ಧಿಪಡಿಸಲು AI ಅನ್ನು ತಯಾರಿಸುತ್ತಿದ್ದಾರೆ. ಆದರೆ ಈಗ ಎಐ ಸ್ವತಃ ಒಂದು ಹೊಸ ಅಪಾಯವಾಗಿ ಪರಿಣಮಿಸುತ್ತಿದೆ.

AI ಮತ್ತು ಅಪಾಯದ ವರ್ಗೀಕರಣ: AI ಅಪಾಯಗಳನ್ನು ಎರಡು ವಿಧಗಳಾಗಿ ವರ್ಗೀಕರಿಸಬಹುದು: ಉದ್ದೇಶಪೂರ್ವಕ ಮತ್ತು ಉದ್ದೇಶಪೂರ್ವಕವಲ್ಲದ ಅಪಾಯ. ಉದ್ದೇಶಪೂರ್ವಕವಲ್ಲದ ಅಪಾಯಗಳು ಮಾನವ ದೋಷಗಳು ಅಥವಾ ತಾಂತ್ರಿಕ ವೈಫಲ್ಯಗಳಿಂದ ಉಂಟಾಗುತ್ತವೆ. AI ಬಳಕೆಯು ಹೆಚ್ಚಾದಂತೆ AI ಮಾದರಿಗಳಲ್ಲಿ ಮಾನವ ದೋಷ ಅಥವಾ AI ಆಧಾರಿತ ತಂತ್ರಜ್ಞಾನಗಳಲ್ಲಿನ ತಾಂತ್ರಿಕ ವೈಫಲ್ಯಗಳಿಂದ ಉಂಟಾಗುವ ಹೆಚ್ಚಿನ ಪ್ರತಿಕೂಲ ಘಟನೆಗಳು ಕಂಡುಬರುತ್ತವೆ. ಸಾರಿಗೆ (ಡ್ರೋನ್‌ಗಳು, ರೈಲುಗಳು ಅಥವಾ ಸ್ವಯಂ ಚಾಲಿತ ಕಾರುಗಳು), ವಿದ್ಯುತ್, ತೈಲ ಮತ್ತು ಅನಿಲ, ಹಣಕಾಸು ಮತ್ತು ಬ್ಯಾಂಕಿಂಗ್, ಕೃಷಿ, ಆರೋಗ್ಯ ಮತ್ತು ಗಣಿಗಾರಿಕೆ ಸೇರಿದಂತೆ ಎಲ್ಲಾ ರೀತಿಯ ಉದ್ಯಮಗಳಲ್ಲಿ ಇಂಥ ಘಟನೆಗಳು ಸಂಭವಿಸಬಹುದು.

ಉದ್ದೇಶಪೂರ್ವಕ AI ಅಪಾಯಗಳ ಬಗ್ಗೆ ಹೇಳುವುದಾದರೆ, ಇವು ಜನರು ಮತ್ತು ಆಸ್ತಿ ಪಾಸ್ತಿಗಳಿಗೆ ಹಾನಿ ಮಾಡಲು AI ಅನ್ನು ಬಳಸುವ ಅಪಾಯವಾಗಿವೆ. ಭದ್ರತೆ ಮತ್ತು ಸುರಕ್ಷತಾ ವ್ಯವಸ್ಥೆಗಳನ್ನು ರಾಜಿ ಮಾಡಿಕೊಳ್ಳುವ ಮೂಲಕ ಕಾನೂನುಬಾಹಿರ ಪ್ರಯೋಜನಗಳನ್ನು ಪಡೆಯಲು AI ಅನ್ನು ಬಳಸಬಹುದು. ನನ್ನ ದೃಷ್ಟಿಯಲ್ಲಿ, ಈ ಸರಳ ಉದ್ದೇಶಪೂರ್ವಕ ಮತ್ತು ಉದ್ದೇಶಪೂರ್ವಕವಲ್ಲದ ವರ್ಗೀಕರಣವು AI ಸಂದರ್ಭದಲ್ಲಿ ಸಾಕಾಗುವುದಿಲ್ಲ.

ಇಲ್ಲಿ ನಾವು ಹೊಸದೊಂದು ರೀತಿಯ ಸಂಭಾವ್ಯ ಬೆದರಿಕೆಗಳನ್ನು ಸೇರಿಸುವ ಅಗತ್ಯವಿದೆ. AI ಮಾನವ ನಿಯಂತ್ರಣ ಮತ್ತು ನಿರ್ಧಾರವನ್ನು ಹಿಂದಿಕ್ಕುವ ಸಾಧ್ಯತೆಯಿದೆ. ಇಂಥದದೊಂದು ಪ್ರಚೋದನೆಯು ಉದ್ದೇಶಪೂರ್ವಕವಾಗಿ ಅಥವಾ ಅನುದ್ದೇಶಪೂರ್ವಕವಾಗಿ ಆಗಬಹುದು. ಇಂಥ ಸಂಭಾವ್ಯ ಬೆದರಿಕೆಗಳ ವಿರುದ್ಧ ಅನೇಕ AI ತಜ್ಞರು ಈಗಾಗಲೇ ಎಚ್ಚರಿಕೆ ನೀಡಿದ್ದಾರೆ. AI ಯ ಅಭಿವೃದ್ಧಿಯಲ್ಲಿ ತೊಡಗಿರುವ ಸಂಶೋಧಕರು, ವಿಜ್ಞಾನಿಗಳು ಮತ್ತು ಇತರರು ಇತ್ತೀಚೆಗೆ ಬಹಿರಂಗ ಪತ್ರವೊಂದನ್ನು ಬರೆದು, ಮುಂದಿನ ದಿನಗಳಲ್ಲಿ ಎಐ ತಂತ್ರಜ್ಞಾನದ ಬೆಳವಣಿಗೆಯನ್ನು ಸ್ಥಗಿತಗೊಳಿಸಬೇಕೆಂದು ಕೋರಿದ್ದಾರೆ.

ಸಾರ್ವಜನಿಕ ಸುರಕ್ಷತೆಗೆ ಸಂಭಾವ್ಯ ಅಪಾಯಗಳು: ಸಾರ್ವಜನಿಕ ಸುರಕ್ಷತೆ ಮತ್ತು ತುರ್ತು ನಿರ್ವಹಣಾ ತಜ್ಞರು ಅಪಾಯಗಳನ್ನು ನಿರ್ಣಯಿಸಲು ಮತ್ತು ಹೋಲಿಸಲು ಅಪಾಯದ ಮ್ಯಾಟ್ರಿಕ್ಸ್ ಅನ್ನು ಬಳಸುತ್ತಾರೆ. ಈ ವಿಧಾನವನ್ನು ಬಳಸಿಕೊಂಡು, ಅಪಾಯಗಳನ್ನು ಅವುಗಳ ಆವರ್ತನ ಮತ್ತು ಪರಿಣಾಮದ ಆಧಾರದ ಮೇಲೆ ಗುಣಾತ್ಮಕವಾಗಿ ಅಥವಾ ಪರಿಮಾಣಾತ್ಮಕವಾಗಿ ನಿರ್ಣಯಿಸಲಾಗುತ್ತದೆ.

ಅವುಗಳ ಪರಿಣಾಮಗಳನ್ನು ಕಡಿಮೆ, ಮಧ್ಯಮ ಅಥವಾ ಹೆಚ್ಚಿನ ಎಂದು ವರ್ಗೀಕರಿಸಲಾಗುತ್ತದೆ. ಕಡಿಮೆ ಆವರ್ತನ ಮತ್ತು ಕಡಿಮೆ ಪರಿಣಾಮ ಅಥವಾ ಪ್ರಭಾವವನ್ನು ಹೊಂದಿರುವ ಅಪಾಯಗಳನ್ನು ಕಡಿಮೆ ಅಪಾಯವೆಂದು ಪರಿಗಣಿಸಲಾಗುತ್ತದೆ ಮತ್ತು ಅವುಗಳನ್ನು ನಿರ್ವಹಿಸಲು ಯಾವುದೇ ಹೆಚ್ಚುವರಿ ಕ್ರಮಗಳ ಅಗತ್ಯವಿಲ್ಲ. ಮಧ್ಯಮ ಪರಿಣಾಮ ಮತ್ತು ಮಧ್ಯಮ ಆವರ್ತನವನ್ನು ಹೊಂದಿರುವ ಅಪಾಯಗಳನ್ನು ಮಧ್ಯಮ ಅಪಾಯವೆಂದು ಪರಿಗಣಿಸಲಾಗುತ್ತದೆ. ಈ ಅಪಾಯಗಳನ್ನು ನಿಕಟವಾಗಿ ಮೇಲ್ವಿಚಾರಣೆ ಮಾಡುವ ಅಗತ್ಯವಿದೆ.

ಸಂಭಾವ್ಯ ಅಪಾಯಗಳ ಬಗ್ಗೆ ಜಾಗೃತಿ ಅಗತ್ಯ: ಅಪಾಯಗಳನ್ನು ಅರ್ಥಮಾಡಿಕೊಳ್ಳುವಲ್ಲಿ, ಸಂಭಾವ್ಯ ಅಪಾಯಗಳನ್ನು ತಿಳಿಯುವಲ್ಲಿ ಮತ್ತು ನಿರ್ವಹಿಸುವಲ್ಲಿ AI ಅಭಿವೃದ್ಧಿಯು ಸರ್ಕಾರ ಮತ್ತು ಕಾರ್ಪೊರೇಟ್ ನೀತಿಗಳಿಗಿಂತ ಹೆಚ್ಚು ವೇಗವಾಗಿ ಪ್ರಗತಿಯಲ್ಲಿದೆ. ಪ್ರಸ್ತುತ ಜಾಗತಿಕ ಪರಿಸ್ಥಿತಿಗಳು, AI ತಂತ್ರಜ್ಞಾನಗಳ ಮಾರುಕಟ್ಟೆ ಸ್ಪರ್ಧೆಯೊಂದಿಗೆ ಸೇರಿಕೊಂಡು, ಅಪಾಯದ ಆಡಳಿತ ಕಾರ್ಯವಿಧಾನಗಳನ್ನು ವಿರಾಮಗೊಳಿಸಲು ಮತ್ತು ಅಭಿವೃದ್ಧಿಪಡಿಸಲು ಸರ್ಕಾರಗಳಿಗೆ ಅವಕಾಶವನ್ನು ಯೋಚಿಸುವುದು ಕಷ್ಟಕರವಾಗಿದೆ. ಸದ್ಯದ ಜಾಗತಿಕ ಸ್ಥಿತಿಗತಿಗಳು, ಎಐ ತಂತ್ರಜ್ಞಾನದಲ್ಲಿನ ಪೈಪೋಟಿ ಇವುಗಳೆಲ್ಲವನ್ನೂ ನೋಡಿದರೆ ಇವನ್ನು ನಿಯಂತ್ರಿಸಲು ಸರ್ಕಾರಗಳು ಮುಂದಾಗಬಹುದು ಎಂದು ಯೋಚಿಸಲು ಸಹ ಸಾಧ್ಯವಿಲ್ಲ ಎನಿಸುತ್ತದೆ. ಆದರೆ ಎಐ ನಿಂದ ನಮ್ಮ ಸಮಾಜ ಮತ್ತು ವ್ಯವಸ್ಥೆಯ ಮೇಲಾಗಬಹುದಾದ ಸಂಭಾವ್ಯ ಅಪಾಯಗಳ ಬಗ್ಗೆ ಜಾಗ್ರತೆ ವಹಿಸುವುದು ಬಹಳ ಅಗತ್ಯವಾಗಿದೆ.

ಇದನ್ನೂ ಓದಿ : ಸೀಟ್ ಬೆಲ್ಟ್ ಅಲಾರ್ಮ್ ಸ್ಟಾಪರ್ ಮಾರಾಟ ನಿಲ್ಲಿಸುವಂತೆ ಇ -ಕಾಮರ್ಸ್​ ಪ್ಲಾಟ್​ಫಾರ್ಮ್​ಗಳಿಗೆ ಆದೇಶ

ಟೊರೊಂಟೊ (ಕೆನಡಾ): ಬಹುತೇಕ ಕಾಲಾವಧಿಯಲ್ಲಿ ತುರ್ತು ನಿರ್ವಹಣೆಯ ವಿಷಯವು ನೈಸರ್ಗಿಕ, ತಾಂತ್ರಿಕ ಮತ್ತು ಮಾನವ ನಿರ್ಮಿತ ಅಪಾಯಗಳಾದ ಪ್ರವಾಹ, ಭೂಕಂಪಗಳು, ಸುಂಟರಗಾಳಿಗಳು, ಕೈಗಾರಿಕಾ ಅಪಘಾತಗಳು, ವಿಪರೀತ ಹವಾಮಾನ ಘಟನೆಗಳು ಮತ್ತು ಸೈಬರ್ ದಾಳಿಗಳ ಸುತ್ತ ಕೇಂದ್ರೀಕೃತವಾಗಿರುತ್ತದೆ. ಆದಾಗ್ಯೂ, ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯ ತಯಾರಿಕೆ ಮತ್ತು ಅದರ ಸಾಮರ್ಥ್ಯಗಳ ಹೆಚ್ಚಳದೊಂದಿಗೆ ಈ ತಂತ್ರಜ್ಞಾನಗಳಿಗೆ ಸಂಬಂಧಿಸಿದಂತೆ ಸಾರ್ವಜನಿಕ ಸುರಕ್ಷತಾ ಅಪಾಯಗಳು ಶೀಘ್ರದಲ್ಲೇ ಎದುರಾಗಬಹುದು ಮತ್ತು ಇಂಥದೊಂದು ಪರಿಸ್ಥಿತಿಯನ್ನು ಎದುರಿಸಲು ಕೂಡ ನಾವು ಸಿದ್ಧವಾಗಿರಬೇಕಾಗುತ್ತದೆ.

ಕಳೆದ 20 ವರ್ಷಗಳಿಂದ ಅನೇಕ ಸಂಶೋಧಕರು ತುರ್ತು ಪ್ರತಿಕ್ರಿಯೆ ಕಾರ್ಯಾಚರಣೆಗಳು ಮತ್ತು ನಿರ್ಧಾರ ತೆಗೆದುಕೊಳ್ಳುವಿಕೆಯನ್ನು ತಿಳಿಸಲು ಅಪಾಯಗಳನ್ನು ಗುರುತಿಸಲು, ನಿರ್ಣಯಿಸಲು, ಊಹಿಸಲು, ಮೇಲ್ವಿಚಾರಣೆ ಮಾಡಲು ಮತ್ತು ಪತ್ತೆಹಚ್ಚಲು ಮಾದರಿಗಳು ಮತ್ತು ಅಪ್ಲಿಕೇಶನ್‌ಗಳನ್ನು ಅಭಿವೃದ್ಧಿಪಡಿಸಲು AI ಅನ್ನು ತಯಾರಿಸುತ್ತಿದ್ದಾರೆ. ಆದರೆ ಈಗ ಎಐ ಸ್ವತಃ ಒಂದು ಹೊಸ ಅಪಾಯವಾಗಿ ಪರಿಣಮಿಸುತ್ತಿದೆ.

AI ಮತ್ತು ಅಪಾಯದ ವರ್ಗೀಕರಣ: AI ಅಪಾಯಗಳನ್ನು ಎರಡು ವಿಧಗಳಾಗಿ ವರ್ಗೀಕರಿಸಬಹುದು: ಉದ್ದೇಶಪೂರ್ವಕ ಮತ್ತು ಉದ್ದೇಶಪೂರ್ವಕವಲ್ಲದ ಅಪಾಯ. ಉದ್ದೇಶಪೂರ್ವಕವಲ್ಲದ ಅಪಾಯಗಳು ಮಾನವ ದೋಷಗಳು ಅಥವಾ ತಾಂತ್ರಿಕ ವೈಫಲ್ಯಗಳಿಂದ ಉಂಟಾಗುತ್ತವೆ. AI ಬಳಕೆಯು ಹೆಚ್ಚಾದಂತೆ AI ಮಾದರಿಗಳಲ್ಲಿ ಮಾನವ ದೋಷ ಅಥವಾ AI ಆಧಾರಿತ ತಂತ್ರಜ್ಞಾನಗಳಲ್ಲಿನ ತಾಂತ್ರಿಕ ವೈಫಲ್ಯಗಳಿಂದ ಉಂಟಾಗುವ ಹೆಚ್ಚಿನ ಪ್ರತಿಕೂಲ ಘಟನೆಗಳು ಕಂಡುಬರುತ್ತವೆ. ಸಾರಿಗೆ (ಡ್ರೋನ್‌ಗಳು, ರೈಲುಗಳು ಅಥವಾ ಸ್ವಯಂ ಚಾಲಿತ ಕಾರುಗಳು), ವಿದ್ಯುತ್, ತೈಲ ಮತ್ತು ಅನಿಲ, ಹಣಕಾಸು ಮತ್ತು ಬ್ಯಾಂಕಿಂಗ್, ಕೃಷಿ, ಆರೋಗ್ಯ ಮತ್ತು ಗಣಿಗಾರಿಕೆ ಸೇರಿದಂತೆ ಎಲ್ಲಾ ರೀತಿಯ ಉದ್ಯಮಗಳಲ್ಲಿ ಇಂಥ ಘಟನೆಗಳು ಸಂಭವಿಸಬಹುದು.

ಉದ್ದೇಶಪೂರ್ವಕ AI ಅಪಾಯಗಳ ಬಗ್ಗೆ ಹೇಳುವುದಾದರೆ, ಇವು ಜನರು ಮತ್ತು ಆಸ್ತಿ ಪಾಸ್ತಿಗಳಿಗೆ ಹಾನಿ ಮಾಡಲು AI ಅನ್ನು ಬಳಸುವ ಅಪಾಯವಾಗಿವೆ. ಭದ್ರತೆ ಮತ್ತು ಸುರಕ್ಷತಾ ವ್ಯವಸ್ಥೆಗಳನ್ನು ರಾಜಿ ಮಾಡಿಕೊಳ್ಳುವ ಮೂಲಕ ಕಾನೂನುಬಾಹಿರ ಪ್ರಯೋಜನಗಳನ್ನು ಪಡೆಯಲು AI ಅನ್ನು ಬಳಸಬಹುದು. ನನ್ನ ದೃಷ್ಟಿಯಲ್ಲಿ, ಈ ಸರಳ ಉದ್ದೇಶಪೂರ್ವಕ ಮತ್ತು ಉದ್ದೇಶಪೂರ್ವಕವಲ್ಲದ ವರ್ಗೀಕರಣವು AI ಸಂದರ್ಭದಲ್ಲಿ ಸಾಕಾಗುವುದಿಲ್ಲ.

ಇಲ್ಲಿ ನಾವು ಹೊಸದೊಂದು ರೀತಿಯ ಸಂಭಾವ್ಯ ಬೆದರಿಕೆಗಳನ್ನು ಸೇರಿಸುವ ಅಗತ್ಯವಿದೆ. AI ಮಾನವ ನಿಯಂತ್ರಣ ಮತ್ತು ನಿರ್ಧಾರವನ್ನು ಹಿಂದಿಕ್ಕುವ ಸಾಧ್ಯತೆಯಿದೆ. ಇಂಥದದೊಂದು ಪ್ರಚೋದನೆಯು ಉದ್ದೇಶಪೂರ್ವಕವಾಗಿ ಅಥವಾ ಅನುದ್ದೇಶಪೂರ್ವಕವಾಗಿ ಆಗಬಹುದು. ಇಂಥ ಸಂಭಾವ್ಯ ಬೆದರಿಕೆಗಳ ವಿರುದ್ಧ ಅನೇಕ AI ತಜ್ಞರು ಈಗಾಗಲೇ ಎಚ್ಚರಿಕೆ ನೀಡಿದ್ದಾರೆ. AI ಯ ಅಭಿವೃದ್ಧಿಯಲ್ಲಿ ತೊಡಗಿರುವ ಸಂಶೋಧಕರು, ವಿಜ್ಞಾನಿಗಳು ಮತ್ತು ಇತರರು ಇತ್ತೀಚೆಗೆ ಬಹಿರಂಗ ಪತ್ರವೊಂದನ್ನು ಬರೆದು, ಮುಂದಿನ ದಿನಗಳಲ್ಲಿ ಎಐ ತಂತ್ರಜ್ಞಾನದ ಬೆಳವಣಿಗೆಯನ್ನು ಸ್ಥಗಿತಗೊಳಿಸಬೇಕೆಂದು ಕೋರಿದ್ದಾರೆ.

ಸಾರ್ವಜನಿಕ ಸುರಕ್ಷತೆಗೆ ಸಂಭಾವ್ಯ ಅಪಾಯಗಳು: ಸಾರ್ವಜನಿಕ ಸುರಕ್ಷತೆ ಮತ್ತು ತುರ್ತು ನಿರ್ವಹಣಾ ತಜ್ಞರು ಅಪಾಯಗಳನ್ನು ನಿರ್ಣಯಿಸಲು ಮತ್ತು ಹೋಲಿಸಲು ಅಪಾಯದ ಮ್ಯಾಟ್ರಿಕ್ಸ್ ಅನ್ನು ಬಳಸುತ್ತಾರೆ. ಈ ವಿಧಾನವನ್ನು ಬಳಸಿಕೊಂಡು, ಅಪಾಯಗಳನ್ನು ಅವುಗಳ ಆವರ್ತನ ಮತ್ತು ಪರಿಣಾಮದ ಆಧಾರದ ಮೇಲೆ ಗುಣಾತ್ಮಕವಾಗಿ ಅಥವಾ ಪರಿಮಾಣಾತ್ಮಕವಾಗಿ ನಿರ್ಣಯಿಸಲಾಗುತ್ತದೆ.

ಅವುಗಳ ಪರಿಣಾಮಗಳನ್ನು ಕಡಿಮೆ, ಮಧ್ಯಮ ಅಥವಾ ಹೆಚ್ಚಿನ ಎಂದು ವರ್ಗೀಕರಿಸಲಾಗುತ್ತದೆ. ಕಡಿಮೆ ಆವರ್ತನ ಮತ್ತು ಕಡಿಮೆ ಪರಿಣಾಮ ಅಥವಾ ಪ್ರಭಾವವನ್ನು ಹೊಂದಿರುವ ಅಪಾಯಗಳನ್ನು ಕಡಿಮೆ ಅಪಾಯವೆಂದು ಪರಿಗಣಿಸಲಾಗುತ್ತದೆ ಮತ್ತು ಅವುಗಳನ್ನು ನಿರ್ವಹಿಸಲು ಯಾವುದೇ ಹೆಚ್ಚುವರಿ ಕ್ರಮಗಳ ಅಗತ್ಯವಿಲ್ಲ. ಮಧ್ಯಮ ಪರಿಣಾಮ ಮತ್ತು ಮಧ್ಯಮ ಆವರ್ತನವನ್ನು ಹೊಂದಿರುವ ಅಪಾಯಗಳನ್ನು ಮಧ್ಯಮ ಅಪಾಯವೆಂದು ಪರಿಗಣಿಸಲಾಗುತ್ತದೆ. ಈ ಅಪಾಯಗಳನ್ನು ನಿಕಟವಾಗಿ ಮೇಲ್ವಿಚಾರಣೆ ಮಾಡುವ ಅಗತ್ಯವಿದೆ.

ಸಂಭಾವ್ಯ ಅಪಾಯಗಳ ಬಗ್ಗೆ ಜಾಗೃತಿ ಅಗತ್ಯ: ಅಪಾಯಗಳನ್ನು ಅರ್ಥಮಾಡಿಕೊಳ್ಳುವಲ್ಲಿ, ಸಂಭಾವ್ಯ ಅಪಾಯಗಳನ್ನು ತಿಳಿಯುವಲ್ಲಿ ಮತ್ತು ನಿರ್ವಹಿಸುವಲ್ಲಿ AI ಅಭಿವೃದ್ಧಿಯು ಸರ್ಕಾರ ಮತ್ತು ಕಾರ್ಪೊರೇಟ್ ನೀತಿಗಳಿಗಿಂತ ಹೆಚ್ಚು ವೇಗವಾಗಿ ಪ್ರಗತಿಯಲ್ಲಿದೆ. ಪ್ರಸ್ತುತ ಜಾಗತಿಕ ಪರಿಸ್ಥಿತಿಗಳು, AI ತಂತ್ರಜ್ಞಾನಗಳ ಮಾರುಕಟ್ಟೆ ಸ್ಪರ್ಧೆಯೊಂದಿಗೆ ಸೇರಿಕೊಂಡು, ಅಪಾಯದ ಆಡಳಿತ ಕಾರ್ಯವಿಧಾನಗಳನ್ನು ವಿರಾಮಗೊಳಿಸಲು ಮತ್ತು ಅಭಿವೃದ್ಧಿಪಡಿಸಲು ಸರ್ಕಾರಗಳಿಗೆ ಅವಕಾಶವನ್ನು ಯೋಚಿಸುವುದು ಕಷ್ಟಕರವಾಗಿದೆ. ಸದ್ಯದ ಜಾಗತಿಕ ಸ್ಥಿತಿಗತಿಗಳು, ಎಐ ತಂತ್ರಜ್ಞಾನದಲ್ಲಿನ ಪೈಪೋಟಿ ಇವುಗಳೆಲ್ಲವನ್ನೂ ನೋಡಿದರೆ ಇವನ್ನು ನಿಯಂತ್ರಿಸಲು ಸರ್ಕಾರಗಳು ಮುಂದಾಗಬಹುದು ಎಂದು ಯೋಚಿಸಲು ಸಹ ಸಾಧ್ಯವಿಲ್ಲ ಎನಿಸುತ್ತದೆ. ಆದರೆ ಎಐ ನಿಂದ ನಮ್ಮ ಸಮಾಜ ಮತ್ತು ವ್ಯವಸ್ಥೆಯ ಮೇಲಾಗಬಹುದಾದ ಸಂಭಾವ್ಯ ಅಪಾಯಗಳ ಬಗ್ಗೆ ಜಾಗ್ರತೆ ವಹಿಸುವುದು ಬಹಳ ಅಗತ್ಯವಾಗಿದೆ.

ಇದನ್ನೂ ಓದಿ : ಸೀಟ್ ಬೆಲ್ಟ್ ಅಲಾರ್ಮ್ ಸ್ಟಾಪರ್ ಮಾರಾಟ ನಿಲ್ಲಿಸುವಂತೆ ಇ -ಕಾಮರ್ಸ್​ ಪ್ಲಾಟ್​ಫಾರ್ಮ್​ಗಳಿಗೆ ಆದೇಶ

ETV Bharat Logo

Copyright © 2024 Ushodaya Enterprises Pvt. Ltd., All Rights Reserved.