ETV Bharat / science-and-technology

ಬೈಗುಳ, ನಿಂದನೆ, ತಪ್ಪು ಮಾಹಿತಿ ತಡೆಗೆ ಹೊಸ ಎಐ ಮಾದರಿ ತಯಾರಿಸಿದ ಗೂಗಲ್

ನಿಂದನಾತ್ಮಕ ವಿಷಯಗಳನ್ನು ಕಂಡು ಹಿಡಿಯಲು ಗೂಗಲ್ ಹೊಸ ಎಐ ಮಾದರಿಯೊಂದನ್ನು ತಯಾರಿಸಿದೆ.

Google develops AI prototype to spot misinformation
Google develops AI prototype to spot misinformation
author img

By ETV Bharat Karnataka Team

Published : Oct 27, 2023, 2:38 PM IST

ನವದೆಹಲಿ: ಎಲ್​ಎಲ್​ಎಂ ಅಥವಾ ಲಾರ್ಜ್ ಲ್ಯಾಂಗ್ವೇಜ್ ಮಾಡೆಲ್​ಗಳು ದೊಡ್ಡ ಪ್ರಮಾಣದಲ್ಲಿ ಬೈಗುಳ ಅಥವಾ ನಿಂದನಾತ್ಮಕ ವಿಷಯ ಮತ್ತು ತಪ್ಪು ಮಾಹಿತಿಯನ್ನು ಪತ್ತೆ ಮಾಡಲು ಸಾಧ್ಯವಾಗುವಂಥ ಮಾದರಿಯನ್ನು ತಯಾರಿಸಿರುವುದಾಗಿ ಗೂಗಲ್ ಗುರುವಾರ ಹೇಳಿದೆ. ಎಲ್ಎಲ್ಎಂ ಎಂಬುದು ಮಾನವ ಭಾಷೆಯನ್ನು ಕಲಿಯುವ ಮತ್ತು ಅರ್ಥಮಾಡಿಕೊಳ್ಳುವ ಒಂದು ರೀತಿಯ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯಾಗಿದೆ.

"ಎಲ್ಎಲ್ಎಂಗಳನ್ನು ಬಳಸಿಕೊಂಡು, ನಮ್ಮ ಉತ್ಪನ್ನಗಳ ಮೇಲೆ ನಿರ್ದಿಷ್ಟ ರೀತಿಯ ದುರುಪಯೋಗವನ್ನು ಕಂಡುಹಿಡಿಯಲು ವಾರಗಳು ಅಥವಾ ತಿಂಗಳುಗಳ ಬದಲು ಕೆಲವೇ ದಿನಗಳಲ್ಲಿ ಮಾದರಿಯನ್ನು ವೇಗವಾಗಿ ನಿರ್ಮಿಸಲು ಮತ್ತು ತರಬೇತಿ ನೀಡಲು ಸಾಧ್ಯವಾಗುತ್ತದೆ" ಎಂದು ವಿಶ್ವಾಸ ಮತ್ತು ಸುರಕ್ಷತೆ ವಿಭಾಗದ ಹಿರಿಯ ನಿರ್ದೇಶಕ ಅಮಂಡಾ ಸ್ಟೋರೆ ಹೇಳಿದರು.

ಗೂಗಲ್ ಇನ್ನೂ ಈ ಹೊಸ ತಂತ್ರಜ್ಞಾನಗಳನ್ನು ಪರೀಕ್ಷಿಸುತ್ತಿದೆ, ಆದರೆ ಮೂಲಮಾದರಿಗಳು ಇಲ್ಲಿಯವರೆಗೆ ಉತ್ತಮ ಫಲಿತಾಂಶಗಳನ್ನು ತೋರಿಸಿವೆ. "ನಮ್ಮ ಬಳಕೆದಾರರನ್ನು ವಿಶೇಷವಾಗಿ ಹೊಸ ಮತ್ತು ಉದಯೋನ್ಮುಖ ಅಪಾಯಗಳಿಂದ ಪೂರ್ವಭಾವಿಯಾಗಿ ರಕ್ಷಿಸುವ ನಮ್ಮ ಪ್ರಯತ್ನದಲ್ಲಿ ಇದು ಪ್ರಮುಖ ಪ್ರಗತಿಯ ಭರವಸೆಯನ್ನು ತೋರಿಸಿದೆ" ಎಂದು ಸ್ಟೋರೆ ಹೇಳಿದರು.

ಆದಾಗ್ಯೂ, ತಪ್ಪು ಮಾಹಿತಿಯನ್ನು ಪತ್ತೆಹಚ್ಚಲು ಕಂಪನಿಯು ತನ್ನ ಅನೇಕ ಎಲ್ಎಲ್ಎಂಗಳಲ್ಲಿ ಯಾವುದನ್ನು ಬಳಸುತ್ತಿದೆ ಎಂಬುದನ್ನು ನಿರ್ದಿಷ್ಟಪಡಿಸಿಲ್ಲ.

"ಕಂಟೆಂಟ್​ ದುರುಪಯೋಗವನ್ನು ಕಂಡುಹಿಡಿಯಲು ನಾವು ಬಳಸುತ್ತಿರುವ ಸಾಧನಗಳು, ನೀತಿಗಳು ಮತ್ತು ತಂತ್ರಗಳನ್ನು ನಾವು ನಿರಂತರವಾಗಿ ವಿಕಸನಗೊಳಿಸುತ್ತಿದ್ದೇವೆ. ನಮ್ಮ ಪ್ಲಾಟ್​ಫಾರ್ಮ್​ಗಳಲ್ಲಿ ದುರುಪಯೋಗ ಪತ್ತೆಹಚ್ಚುವಿಕೆಯನ್ನು ಹೆಚ್ಚಿಸಲು ಎಐ ಅದ್ಭುತ ಭರವಸೆಯನ್ನು ತೋರಿಸುತ್ತಿದೆ" ಎಂದು ಗೂಗಲ್ ಹೇಳಿದೆ.

ತಪ್ಪು ಮಾಹಿತಿಯ ಅಪಾಯವನ್ನು ಕಡಿಮೆ ಮಾಡಲು ಮತ್ತು ಜನರೇಟಿವ್ ಎಐ ಉತ್ಪನ್ನಗಳಲ್ಲಿ ವಿಶ್ವಾಸಾರ್ಹ ಮಾಹಿತಿಯನ್ನು ಉತ್ತೇಜಿಸಲು ಹಲವಾರು ಕ್ರಮಗಳನ್ನು ತೆಗೆದುಕೊಳ್ಳಲಾಗುತ್ತಿದೆ ಎಂದು ಗೂಗಲ್ ಹೇಳಿದೆ.

ದೊಡ್ಡ ಭಾಷಾ ಮಾದರಿ ಅಥವಾ ಎಲ್ಎಲ್ಎಂ ಎಂಬುದು ಒಂದು ರೀತಿಯ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ (ಎಐ) ಅಲ್ಗಾರಿದಮ್ ಆಗಿದ್ದು, ಇದು ಹೊಸ ವಿಷಯವನ್ನು ಅರ್ಥಮಾಡಿಕೊಳ್ಳಲು, ಸಂಕ್ಷಿಪ್ತಗೊಳಿಸಲು, ಉತ್ಪಾದಿಸಲು ಮತ್ತು ಊಹಿಸಲು ಆಳವಾದ ಕಲಿಕೆಯ ತಂತ್ರಗಳು ಮತ್ತು ಬೃಹತ್ ದೊಡ್ಡ ಡೇಟಾ ಸೆಟ್​ಗಳನ್ನು ಬಳಸುತ್ತದೆ. ಜೆನೆರೇಟಿವ್ ಎಐ ಎಂಬ ಪದವು ಎಲ್ಎಲ್ಎಂಗಳೊಂದಿಗೆ ನಿಕಟ ಸಂಪರ್ಕ ಹೊಂದಿದೆ. ಇದು ವಾಸ್ತವವಾಗಿ, ಪಠ್ಯ ಆಧಾರಿತ ವಿಷಯವನ್ನು ರಚಿಸಲು ಸಹಾಯ ಮಾಡಲು ನಿರ್ದಿಷ್ಟವಾಗಿ ವಿನ್ಯಾಸಗೊಳಿಸಲಾದ ಒಂದು ರೀತಿಯ ಉತ್ಪಾದನಾ ಎಐ ಆಗಿದೆ.

ಇದನ್ನೂ ಓದಿ: ಇಂಡಿಯಾ ಮೊಬೈಲ್ ಕಾಂಗ್ರೆಸ್ ಆರಂಭ: 6ಜಿ ತಂತ್ರಜ್ಞಾನದ ನಾಯಕನಾಗಲಿದೆ ಭಾರತ ಎಂದ ಮೋದಿ

ನವದೆಹಲಿ: ಎಲ್​ಎಲ್​ಎಂ ಅಥವಾ ಲಾರ್ಜ್ ಲ್ಯಾಂಗ್ವೇಜ್ ಮಾಡೆಲ್​ಗಳು ದೊಡ್ಡ ಪ್ರಮಾಣದಲ್ಲಿ ಬೈಗುಳ ಅಥವಾ ನಿಂದನಾತ್ಮಕ ವಿಷಯ ಮತ್ತು ತಪ್ಪು ಮಾಹಿತಿಯನ್ನು ಪತ್ತೆ ಮಾಡಲು ಸಾಧ್ಯವಾಗುವಂಥ ಮಾದರಿಯನ್ನು ತಯಾರಿಸಿರುವುದಾಗಿ ಗೂಗಲ್ ಗುರುವಾರ ಹೇಳಿದೆ. ಎಲ್ಎಲ್ಎಂ ಎಂಬುದು ಮಾನವ ಭಾಷೆಯನ್ನು ಕಲಿಯುವ ಮತ್ತು ಅರ್ಥಮಾಡಿಕೊಳ್ಳುವ ಒಂದು ರೀತಿಯ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯಾಗಿದೆ.

"ಎಲ್ಎಲ್ಎಂಗಳನ್ನು ಬಳಸಿಕೊಂಡು, ನಮ್ಮ ಉತ್ಪನ್ನಗಳ ಮೇಲೆ ನಿರ್ದಿಷ್ಟ ರೀತಿಯ ದುರುಪಯೋಗವನ್ನು ಕಂಡುಹಿಡಿಯಲು ವಾರಗಳು ಅಥವಾ ತಿಂಗಳುಗಳ ಬದಲು ಕೆಲವೇ ದಿನಗಳಲ್ಲಿ ಮಾದರಿಯನ್ನು ವೇಗವಾಗಿ ನಿರ್ಮಿಸಲು ಮತ್ತು ತರಬೇತಿ ನೀಡಲು ಸಾಧ್ಯವಾಗುತ್ತದೆ" ಎಂದು ವಿಶ್ವಾಸ ಮತ್ತು ಸುರಕ್ಷತೆ ವಿಭಾಗದ ಹಿರಿಯ ನಿರ್ದೇಶಕ ಅಮಂಡಾ ಸ್ಟೋರೆ ಹೇಳಿದರು.

ಗೂಗಲ್ ಇನ್ನೂ ಈ ಹೊಸ ತಂತ್ರಜ್ಞಾನಗಳನ್ನು ಪರೀಕ್ಷಿಸುತ್ತಿದೆ, ಆದರೆ ಮೂಲಮಾದರಿಗಳು ಇಲ್ಲಿಯವರೆಗೆ ಉತ್ತಮ ಫಲಿತಾಂಶಗಳನ್ನು ತೋರಿಸಿವೆ. "ನಮ್ಮ ಬಳಕೆದಾರರನ್ನು ವಿಶೇಷವಾಗಿ ಹೊಸ ಮತ್ತು ಉದಯೋನ್ಮುಖ ಅಪಾಯಗಳಿಂದ ಪೂರ್ವಭಾವಿಯಾಗಿ ರಕ್ಷಿಸುವ ನಮ್ಮ ಪ್ರಯತ್ನದಲ್ಲಿ ಇದು ಪ್ರಮುಖ ಪ್ರಗತಿಯ ಭರವಸೆಯನ್ನು ತೋರಿಸಿದೆ" ಎಂದು ಸ್ಟೋರೆ ಹೇಳಿದರು.

ಆದಾಗ್ಯೂ, ತಪ್ಪು ಮಾಹಿತಿಯನ್ನು ಪತ್ತೆಹಚ್ಚಲು ಕಂಪನಿಯು ತನ್ನ ಅನೇಕ ಎಲ್ಎಲ್ಎಂಗಳಲ್ಲಿ ಯಾವುದನ್ನು ಬಳಸುತ್ತಿದೆ ಎಂಬುದನ್ನು ನಿರ್ದಿಷ್ಟಪಡಿಸಿಲ್ಲ.

"ಕಂಟೆಂಟ್​ ದುರುಪಯೋಗವನ್ನು ಕಂಡುಹಿಡಿಯಲು ನಾವು ಬಳಸುತ್ತಿರುವ ಸಾಧನಗಳು, ನೀತಿಗಳು ಮತ್ತು ತಂತ್ರಗಳನ್ನು ನಾವು ನಿರಂತರವಾಗಿ ವಿಕಸನಗೊಳಿಸುತ್ತಿದ್ದೇವೆ. ನಮ್ಮ ಪ್ಲಾಟ್​ಫಾರ್ಮ್​ಗಳಲ್ಲಿ ದುರುಪಯೋಗ ಪತ್ತೆಹಚ್ಚುವಿಕೆಯನ್ನು ಹೆಚ್ಚಿಸಲು ಎಐ ಅದ್ಭುತ ಭರವಸೆಯನ್ನು ತೋರಿಸುತ್ತಿದೆ" ಎಂದು ಗೂಗಲ್ ಹೇಳಿದೆ.

ತಪ್ಪು ಮಾಹಿತಿಯ ಅಪಾಯವನ್ನು ಕಡಿಮೆ ಮಾಡಲು ಮತ್ತು ಜನರೇಟಿವ್ ಎಐ ಉತ್ಪನ್ನಗಳಲ್ಲಿ ವಿಶ್ವಾಸಾರ್ಹ ಮಾಹಿತಿಯನ್ನು ಉತ್ತೇಜಿಸಲು ಹಲವಾರು ಕ್ರಮಗಳನ್ನು ತೆಗೆದುಕೊಳ್ಳಲಾಗುತ್ತಿದೆ ಎಂದು ಗೂಗಲ್ ಹೇಳಿದೆ.

ದೊಡ್ಡ ಭಾಷಾ ಮಾದರಿ ಅಥವಾ ಎಲ್ಎಲ್ಎಂ ಎಂಬುದು ಒಂದು ರೀತಿಯ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ (ಎಐ) ಅಲ್ಗಾರಿದಮ್ ಆಗಿದ್ದು, ಇದು ಹೊಸ ವಿಷಯವನ್ನು ಅರ್ಥಮಾಡಿಕೊಳ್ಳಲು, ಸಂಕ್ಷಿಪ್ತಗೊಳಿಸಲು, ಉತ್ಪಾದಿಸಲು ಮತ್ತು ಊಹಿಸಲು ಆಳವಾದ ಕಲಿಕೆಯ ತಂತ್ರಗಳು ಮತ್ತು ಬೃಹತ್ ದೊಡ್ಡ ಡೇಟಾ ಸೆಟ್​ಗಳನ್ನು ಬಳಸುತ್ತದೆ. ಜೆನೆರೇಟಿವ್ ಎಐ ಎಂಬ ಪದವು ಎಲ್ಎಲ್ಎಂಗಳೊಂದಿಗೆ ನಿಕಟ ಸಂಪರ್ಕ ಹೊಂದಿದೆ. ಇದು ವಾಸ್ತವವಾಗಿ, ಪಠ್ಯ ಆಧಾರಿತ ವಿಷಯವನ್ನು ರಚಿಸಲು ಸಹಾಯ ಮಾಡಲು ನಿರ್ದಿಷ್ಟವಾಗಿ ವಿನ್ಯಾಸಗೊಳಿಸಲಾದ ಒಂದು ರೀತಿಯ ಉತ್ಪಾದನಾ ಎಐ ಆಗಿದೆ.

ಇದನ್ನೂ ಓದಿ: ಇಂಡಿಯಾ ಮೊಬೈಲ್ ಕಾಂಗ್ರೆಸ್ ಆರಂಭ: 6ಜಿ ತಂತ್ರಜ್ಞಾನದ ನಾಯಕನಾಗಲಿದೆ ಭಾರತ ಎಂದ ಮೋದಿ

For All Latest Updates

ETV Bharat Logo

Copyright © 2024 Ushodaya Enterprises Pvt. Ltd., All Rights Reserved.