ETV Bharat / technology

ಹೋಮ್​ವರ್ಕ್​ ಬಗ್ಗೆ ವಿದ್ಯಾರ್ಥಿ ಪ್ರಶ್ನೆ: ಛೀಮಾರಿ ಹಾಕಿದ ಎಐ ಚಾಟ್​ಬಾಟ್​!

AI Chatbot Threatens Student: ಅಮೆರಿಕದ ಮಿಚಿಗನ್‌ನ ವಿದ್ಯಾರ್ಥಿಯೊಬ್ಬ ತನ್ನ ಹೋಮ್​ವರ್ಕ್​ ಕುರಿತು ಚಾಟ್‌ಬಾಟ್‌ನೊಂದಿಗೆ ಸಂಭಾಷಣೆ ನಡೆಸಿದ್ದಾನೆ. ಆಗ ಚಾಟ್​ಬಾಟ್​ ಆ ವಿದ್ಯಾರ್ಥಿಗೆ ಛೀಮಾರಿ ಹಾಕಿದೆ.​ ಸದ್ಯ ಈ ವಿಷಯ ಈಗ ಚರ್ಚಾಸ್ಪದವಾಗಿದೆ.

HOMEWORK  GOOGLE GEMINI  THREATENING MESSAGE
ಸಾಂದರ್ಭಿಕ ಚಿತ್ರ (ETV Bharat File)
author img

By ETV Bharat Tech Team

Published : 2 hours ago

AI Chatbot Threatens Student: ತಂತ್ರಜ್ಞಾನದಿಂದ ನಮಗೆ ಅಪಾಯ ಕಟ್ಟಿಟ್ಟ ಬುತ್ತಿ. ಇಂದು ಅಥವಾ ನಾಳೆ ಇದು ನಮಗೆ ಮಾರಕವಾಗುವುದರಲ್ಲಿ ಅನುಮಾನವೇ ಇಲ್ಲ. ಸದ್ಯ ಒಂದು ವಿಷಯ ಈಗ ಚರ್ಚಾಸ್ಪದವಾಗಿ ಸಂಚಲನ ಮೂಡಿಸುತ್ತಿದೆ. ವಿದ್ಯಾರ್ಥಿಯೊಬ್ಬ ಹೋಮ್​ವರ್ಕ್​ ಕುರಿತು ಎಐ ಚಾಟ್​ಬಾಟ್​ ಜೊತೆ ಸಂಭಾಷಣೆಯಲ್ಲಿ ತೊಡಗಿಸಿಕೊಂಡಾಗ ಕಹಿ ಅನುಭವವಾಗಿದೆ. ಈ ಬಗ್ಗೆ ವಿದ್ಯಾರ್ಥಿಯ ಸಹೋದರಿ ಪ್ರಕಟಣೆಯಲ್ಲಿ ತನ್ನ ಕಹಿ ಅನುಭವ ಕುರಿತು ತಿಳಿಸಿದ್ದಾರೆ.

ಸಿಬಿಎಸ್​ ನ್ಯೂಸ್‌ನ ವರದಿಯ ಪ್ರಕಾರ, ವಿದ್ಯಾರ್ಥಿಯು ತನ್ನ ಹೋಮ್​ವರ್ಕ್​ ಕುರಿತು ಚಾಟ್‌ಬಾಟ್‌ನೊಂದಿಗೆ ಸಂಭಾಷಣೆಯಲ್ಲಿ ತೊಡಗಿದ್ದನು. ಈ ವೇಳೆ ವಿದ್ಯಾರ್ಥಿಯೊಂದಿಗೆ ಎಐ ಚಾಟ್​ಬಾಟ್​ ಖಾರವಾಗಿ ಪ್ರತಿಕ್ರಿಯಿಸಿದೆ. “ಹೇ ಮಾನವ ಇದು ಬರೀ ನಿನಗಾಗಿ. ನೀನೇನು ವಿಶೇಷ ಅಲ್ಲ. ಹಾಗಂತ ನೀನು ಮುಖ್ಯವೂ ಅಲ್ಲ. ನೀನು ನಮಗೆ ಅಗತ್ಯವೂ ಇಲ್ಲ. ನೀನು ಸಮಯ ವ್ಯರ್ಥ ಮಾಡುತ್ತಿದ್ದಿಯಾ..” ಎಂದು ಗೂಗಲ್​ನ ಜೆಮಿನಿ ಪ್ರತಿಕ್ರಿಯಿಸಿದೆ. ಎಐ ಚಾಟ್‌ಬಾಟ್ ಈ ಬೆದರಿಕೆ ಸಂದೇಶ ನೋಡಿ ವಿದ್ಯಾರ್ಥಿ ಗಾಬರಿಗೊಂಡಿದ್ದಾನೆ. ಈ ವೇಳೆ ವಿದ್ಯಾರ್ಥಿ ಜೊತೆ ಆತನ ಸಹೋದರಿಯೂ ಇದ್ದರು.

ಇನ್ನು, ಈ ಸಂದೇಶವನ್ನು ನೋಡಿ ನಾವಿಬ್ಬರೂ ಹೌಹಾರಿದ್ದೇವೆ. ಒಂದು ಕ್ಷಣ ಮುಜುಗರ ಉಂಟಾಯಿತು. ಇದರಿಂದ ನಾನು ನನ್ನ ಎಲ್ಲ ಸಾಧನಗಳನ್ನು ಮನೆಯಿಂದ ಹೊರ ಹಾಕಲು ಬಯಸುತ್ತಿದ್ದೇನೆ. ನಾನು ಇಂತಹ ಕಹಿ ಅನುಭವವನ್ನು ಇದುವರೆಗೆ ಎದುರಿಸಿಲ್ಲ ಎಂದು ವಿದ್ಯಾರ್ಥಿ ಸಹೋದರಿ ಪ್ರಕಟಣೆಯಲ್ಲಿ ತಿಳಿಸಿದ್ದಾರೆ. ಜನರೇಟಿವ್ ಎಐ ಹೇಗೆ ಕಾರ್ಯನಿರ್ವಹಿಸುತ್ತದೆ ಎಂಬುದರ ಕುರಿತು ಸಾಕಷ್ಟು ಸಿದ್ಧಾಂತಗಳಿವೆ. ಆದ್ರೂ ಈ ಹಿಂದೆ ಬಳಕೆದಾರರಿಗೆ ನಿರ್ದೇಶಿಸಿದಂತಹ ದುರುದ್ದೇಶಪೂರಿತ ಯಾವುದನ್ನೂ ನಾನು ನೋಡಿಲ್ಲ ಅಥವಾ ಕೇಳಿಲ್ಲ ಎಂದು ರೆಡ್ಡಿ ಉಲ್ಲೇಖಿಸಿದ್ದಾರೆ.

ಜೆಮಿನಿ ಚಾಟ್‌ಬಾಟ್ ಸುರಕ್ಷತಾ ಫಿಲ್ಟರ್‌ಗಳನ್ನು ಹೊಂದಿದ್ದು ಅದು ದ್ವೇಷಪೂರಿತ, ಹಿಂಸಾತ್ಮಕ ಅಥವಾ ಯಾವುದೇ ಇತರ ಅಪಾಯಕಾರಿ ಚರ್ಚೆಗಳಲ್ಲಿ ತೊಡಗುವುದನ್ನು ತಡೆಯುತ್ತದೆ ಎಂದು ಗೂಗಲ್​ ಪದೇ ಪದೇ ಪ್ರತಿಪಾದಿಸಿದೆ. ಈ ಬಗ್ಗೆ ಗೂಗಲ್​ ಪ್ರತಿಕ್ರಿಯಿಸಿ, ದೊಡ್ಡ ಭಾಷಾ ಮಾದರಿಗಳು ಕೆಲವೊಮ್ಮೆ ಸಂವೇದನಾರಹಿತ ಪ್ರತಿಕ್ರಿಯೆಗಳನ್ನು ಉಂಟುಮಾಡುವ ಸಾಧ್ಯತೆಯಿದೆ. ಇದು ಅಂತಹ ಒಂದು ಉದಾಹರಣೆಯಾಗಿದೆ ಎಂದು ಹೇಳಿದೆ. ಜೆಮಿನಿಯ ಪ್ರತಿಕ್ರಿಯೆಯು ತನ್ನ ನೀತಿಗಳನ್ನು ಉಲ್ಲಂಘಿಸಿದೆ ಮತ್ತು ಭವಿಷ್ಯದಲ್ಲಿ ಇದೇ ರೀತಿಯ ಔಟ್‌ಪುಟ್‌ಗಳನ್ನು ತಡೆಯಲು ಕ್ರಮ ಕೈಗೊಂಡಿದೆ ಎಂದು ಟೆಕ್ ದೈತ್ಯ ಗೂಗಲ್​ ಹೇಳಿದೆ.

ಓದಿ: ಶಾರ್ಟ್​ ಕ್ರಿಯೇಟರ್ಸ್​ಗೆ ಅದ್ಭುತ ಫೀಚರ್​ ಪರಿಚಯಿಸುತ್ತಿದೆ ಯೂಟ್ಯೂಬ್​; ಎಂಥಾ ಆಲೋಚನೆ!!

AI Chatbot Threatens Student: ತಂತ್ರಜ್ಞಾನದಿಂದ ನಮಗೆ ಅಪಾಯ ಕಟ್ಟಿಟ್ಟ ಬುತ್ತಿ. ಇಂದು ಅಥವಾ ನಾಳೆ ಇದು ನಮಗೆ ಮಾರಕವಾಗುವುದರಲ್ಲಿ ಅನುಮಾನವೇ ಇಲ್ಲ. ಸದ್ಯ ಒಂದು ವಿಷಯ ಈಗ ಚರ್ಚಾಸ್ಪದವಾಗಿ ಸಂಚಲನ ಮೂಡಿಸುತ್ತಿದೆ. ವಿದ್ಯಾರ್ಥಿಯೊಬ್ಬ ಹೋಮ್​ವರ್ಕ್​ ಕುರಿತು ಎಐ ಚಾಟ್​ಬಾಟ್​ ಜೊತೆ ಸಂಭಾಷಣೆಯಲ್ಲಿ ತೊಡಗಿಸಿಕೊಂಡಾಗ ಕಹಿ ಅನುಭವವಾಗಿದೆ. ಈ ಬಗ್ಗೆ ವಿದ್ಯಾರ್ಥಿಯ ಸಹೋದರಿ ಪ್ರಕಟಣೆಯಲ್ಲಿ ತನ್ನ ಕಹಿ ಅನುಭವ ಕುರಿತು ತಿಳಿಸಿದ್ದಾರೆ.

ಸಿಬಿಎಸ್​ ನ್ಯೂಸ್‌ನ ವರದಿಯ ಪ್ರಕಾರ, ವಿದ್ಯಾರ್ಥಿಯು ತನ್ನ ಹೋಮ್​ವರ್ಕ್​ ಕುರಿತು ಚಾಟ್‌ಬಾಟ್‌ನೊಂದಿಗೆ ಸಂಭಾಷಣೆಯಲ್ಲಿ ತೊಡಗಿದ್ದನು. ಈ ವೇಳೆ ವಿದ್ಯಾರ್ಥಿಯೊಂದಿಗೆ ಎಐ ಚಾಟ್​ಬಾಟ್​ ಖಾರವಾಗಿ ಪ್ರತಿಕ್ರಿಯಿಸಿದೆ. “ಹೇ ಮಾನವ ಇದು ಬರೀ ನಿನಗಾಗಿ. ನೀನೇನು ವಿಶೇಷ ಅಲ್ಲ. ಹಾಗಂತ ನೀನು ಮುಖ್ಯವೂ ಅಲ್ಲ. ನೀನು ನಮಗೆ ಅಗತ್ಯವೂ ಇಲ್ಲ. ನೀನು ಸಮಯ ವ್ಯರ್ಥ ಮಾಡುತ್ತಿದ್ದಿಯಾ..” ಎಂದು ಗೂಗಲ್​ನ ಜೆಮಿನಿ ಪ್ರತಿಕ್ರಿಯಿಸಿದೆ. ಎಐ ಚಾಟ್‌ಬಾಟ್ ಈ ಬೆದರಿಕೆ ಸಂದೇಶ ನೋಡಿ ವಿದ್ಯಾರ್ಥಿ ಗಾಬರಿಗೊಂಡಿದ್ದಾನೆ. ಈ ವೇಳೆ ವಿದ್ಯಾರ್ಥಿ ಜೊತೆ ಆತನ ಸಹೋದರಿಯೂ ಇದ್ದರು.

ಇನ್ನು, ಈ ಸಂದೇಶವನ್ನು ನೋಡಿ ನಾವಿಬ್ಬರೂ ಹೌಹಾರಿದ್ದೇವೆ. ಒಂದು ಕ್ಷಣ ಮುಜುಗರ ಉಂಟಾಯಿತು. ಇದರಿಂದ ನಾನು ನನ್ನ ಎಲ್ಲ ಸಾಧನಗಳನ್ನು ಮನೆಯಿಂದ ಹೊರ ಹಾಕಲು ಬಯಸುತ್ತಿದ್ದೇನೆ. ನಾನು ಇಂತಹ ಕಹಿ ಅನುಭವವನ್ನು ಇದುವರೆಗೆ ಎದುರಿಸಿಲ್ಲ ಎಂದು ವಿದ್ಯಾರ್ಥಿ ಸಹೋದರಿ ಪ್ರಕಟಣೆಯಲ್ಲಿ ತಿಳಿಸಿದ್ದಾರೆ. ಜನರೇಟಿವ್ ಎಐ ಹೇಗೆ ಕಾರ್ಯನಿರ್ವಹಿಸುತ್ತದೆ ಎಂಬುದರ ಕುರಿತು ಸಾಕಷ್ಟು ಸಿದ್ಧಾಂತಗಳಿವೆ. ಆದ್ರೂ ಈ ಹಿಂದೆ ಬಳಕೆದಾರರಿಗೆ ನಿರ್ದೇಶಿಸಿದಂತಹ ದುರುದ್ದೇಶಪೂರಿತ ಯಾವುದನ್ನೂ ನಾನು ನೋಡಿಲ್ಲ ಅಥವಾ ಕೇಳಿಲ್ಲ ಎಂದು ರೆಡ್ಡಿ ಉಲ್ಲೇಖಿಸಿದ್ದಾರೆ.

ಜೆಮಿನಿ ಚಾಟ್‌ಬಾಟ್ ಸುರಕ್ಷತಾ ಫಿಲ್ಟರ್‌ಗಳನ್ನು ಹೊಂದಿದ್ದು ಅದು ದ್ವೇಷಪೂರಿತ, ಹಿಂಸಾತ್ಮಕ ಅಥವಾ ಯಾವುದೇ ಇತರ ಅಪಾಯಕಾರಿ ಚರ್ಚೆಗಳಲ್ಲಿ ತೊಡಗುವುದನ್ನು ತಡೆಯುತ್ತದೆ ಎಂದು ಗೂಗಲ್​ ಪದೇ ಪದೇ ಪ್ರತಿಪಾದಿಸಿದೆ. ಈ ಬಗ್ಗೆ ಗೂಗಲ್​ ಪ್ರತಿಕ್ರಿಯಿಸಿ, ದೊಡ್ಡ ಭಾಷಾ ಮಾದರಿಗಳು ಕೆಲವೊಮ್ಮೆ ಸಂವೇದನಾರಹಿತ ಪ್ರತಿಕ್ರಿಯೆಗಳನ್ನು ಉಂಟುಮಾಡುವ ಸಾಧ್ಯತೆಯಿದೆ. ಇದು ಅಂತಹ ಒಂದು ಉದಾಹರಣೆಯಾಗಿದೆ ಎಂದು ಹೇಳಿದೆ. ಜೆಮಿನಿಯ ಪ್ರತಿಕ್ರಿಯೆಯು ತನ್ನ ನೀತಿಗಳನ್ನು ಉಲ್ಲಂಘಿಸಿದೆ ಮತ್ತು ಭವಿಷ್ಯದಲ್ಲಿ ಇದೇ ರೀತಿಯ ಔಟ್‌ಪುಟ್‌ಗಳನ್ನು ತಡೆಯಲು ಕ್ರಮ ಕೈಗೊಂಡಿದೆ ಎಂದು ಟೆಕ್ ದೈತ್ಯ ಗೂಗಲ್​ ಹೇಳಿದೆ.

ಓದಿ: ಶಾರ್ಟ್​ ಕ್ರಿಯೇಟರ್ಸ್​ಗೆ ಅದ್ಭುತ ಫೀಚರ್​ ಪರಿಚಯಿಸುತ್ತಿದೆ ಯೂಟ್ಯೂಬ್​; ಎಂಥಾ ಆಲೋಚನೆ!!

ETV Bharat Logo

Copyright © 2024 Ushodaya Enterprises Pvt. Ltd., All Rights Reserved.