ನವದೆಹಲಿ: ಎಲ್ಎಲ್ಎಂ ಅಥವಾ ಲಾರ್ಜ್ ಲ್ಯಾಂಗ್ವೇಜ್ ಮಾಡೆಲ್ಗಳು ದೊಡ್ಡ ಪ್ರಮಾಣದಲ್ಲಿ ಬೈಗುಳ ಅಥವಾ ನಿಂದನಾತ್ಮಕ ವಿಷಯ ಮತ್ತು ತಪ್ಪು ಮಾಹಿತಿಯನ್ನು ಪತ್ತೆ ಮಾಡಲು ಸಾಧ್ಯವಾಗುವಂಥ ಮಾದರಿಯನ್ನು ತಯಾರಿಸಿರುವುದಾಗಿ ಗೂಗಲ್ ಗುರುವಾರ ಹೇಳಿದೆ. ಎಲ್ಎಲ್ಎಂ ಎಂಬುದು ಮಾನವ ಭಾಷೆಯನ್ನು ಕಲಿಯುವ ಮತ್ತು ಅರ್ಥಮಾಡಿಕೊಳ್ಳುವ ಒಂದು ರೀತಿಯ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯಾಗಿದೆ.
"ಎಲ್ಎಲ್ಎಂಗಳನ್ನು ಬಳಸಿಕೊಂಡು, ನಮ್ಮ ಉತ್ಪನ್ನಗಳ ಮೇಲೆ ನಿರ್ದಿಷ್ಟ ರೀತಿಯ ದುರುಪಯೋಗವನ್ನು ಕಂಡುಹಿಡಿಯಲು ವಾರಗಳು ಅಥವಾ ತಿಂಗಳುಗಳ ಬದಲು ಕೆಲವೇ ದಿನಗಳಲ್ಲಿ ಮಾದರಿಯನ್ನು ವೇಗವಾಗಿ ನಿರ್ಮಿಸಲು ಮತ್ತು ತರಬೇತಿ ನೀಡಲು ಸಾಧ್ಯವಾಗುತ್ತದೆ" ಎಂದು ವಿಶ್ವಾಸ ಮತ್ತು ಸುರಕ್ಷತೆ ವಿಭಾಗದ ಹಿರಿಯ ನಿರ್ದೇಶಕ ಅಮಂಡಾ ಸ್ಟೋರೆ ಹೇಳಿದರು.
ಗೂಗಲ್ ಇನ್ನೂ ಈ ಹೊಸ ತಂತ್ರಜ್ಞಾನಗಳನ್ನು ಪರೀಕ್ಷಿಸುತ್ತಿದೆ, ಆದರೆ ಮೂಲಮಾದರಿಗಳು ಇಲ್ಲಿಯವರೆಗೆ ಉತ್ತಮ ಫಲಿತಾಂಶಗಳನ್ನು ತೋರಿಸಿವೆ. "ನಮ್ಮ ಬಳಕೆದಾರರನ್ನು ವಿಶೇಷವಾಗಿ ಹೊಸ ಮತ್ತು ಉದಯೋನ್ಮುಖ ಅಪಾಯಗಳಿಂದ ಪೂರ್ವಭಾವಿಯಾಗಿ ರಕ್ಷಿಸುವ ನಮ್ಮ ಪ್ರಯತ್ನದಲ್ಲಿ ಇದು ಪ್ರಮುಖ ಪ್ರಗತಿಯ ಭರವಸೆಯನ್ನು ತೋರಿಸಿದೆ" ಎಂದು ಸ್ಟೋರೆ ಹೇಳಿದರು.
ಆದಾಗ್ಯೂ, ತಪ್ಪು ಮಾಹಿತಿಯನ್ನು ಪತ್ತೆಹಚ್ಚಲು ಕಂಪನಿಯು ತನ್ನ ಅನೇಕ ಎಲ್ಎಲ್ಎಂಗಳಲ್ಲಿ ಯಾವುದನ್ನು ಬಳಸುತ್ತಿದೆ ಎಂಬುದನ್ನು ನಿರ್ದಿಷ್ಟಪಡಿಸಿಲ್ಲ.
"ಕಂಟೆಂಟ್ ದುರುಪಯೋಗವನ್ನು ಕಂಡುಹಿಡಿಯಲು ನಾವು ಬಳಸುತ್ತಿರುವ ಸಾಧನಗಳು, ನೀತಿಗಳು ಮತ್ತು ತಂತ್ರಗಳನ್ನು ನಾವು ನಿರಂತರವಾಗಿ ವಿಕಸನಗೊಳಿಸುತ್ತಿದ್ದೇವೆ. ನಮ್ಮ ಪ್ಲಾಟ್ಫಾರ್ಮ್ಗಳಲ್ಲಿ ದುರುಪಯೋಗ ಪತ್ತೆಹಚ್ಚುವಿಕೆಯನ್ನು ಹೆಚ್ಚಿಸಲು ಎಐ ಅದ್ಭುತ ಭರವಸೆಯನ್ನು ತೋರಿಸುತ್ತಿದೆ" ಎಂದು ಗೂಗಲ್ ಹೇಳಿದೆ.
ತಪ್ಪು ಮಾಹಿತಿಯ ಅಪಾಯವನ್ನು ಕಡಿಮೆ ಮಾಡಲು ಮತ್ತು ಜನರೇಟಿವ್ ಎಐ ಉತ್ಪನ್ನಗಳಲ್ಲಿ ವಿಶ್ವಾಸಾರ್ಹ ಮಾಹಿತಿಯನ್ನು ಉತ್ತೇಜಿಸಲು ಹಲವಾರು ಕ್ರಮಗಳನ್ನು ತೆಗೆದುಕೊಳ್ಳಲಾಗುತ್ತಿದೆ ಎಂದು ಗೂಗಲ್ ಹೇಳಿದೆ.
ದೊಡ್ಡ ಭಾಷಾ ಮಾದರಿ ಅಥವಾ ಎಲ್ಎಲ್ಎಂ ಎಂಬುದು ಒಂದು ರೀತಿಯ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ (ಎಐ) ಅಲ್ಗಾರಿದಮ್ ಆಗಿದ್ದು, ಇದು ಹೊಸ ವಿಷಯವನ್ನು ಅರ್ಥಮಾಡಿಕೊಳ್ಳಲು, ಸಂಕ್ಷಿಪ್ತಗೊಳಿಸಲು, ಉತ್ಪಾದಿಸಲು ಮತ್ತು ಊಹಿಸಲು ಆಳವಾದ ಕಲಿಕೆಯ ತಂತ್ರಗಳು ಮತ್ತು ಬೃಹತ್ ದೊಡ್ಡ ಡೇಟಾ ಸೆಟ್ಗಳನ್ನು ಬಳಸುತ್ತದೆ. ಜೆನೆರೇಟಿವ್ ಎಐ ಎಂಬ ಪದವು ಎಲ್ಎಲ್ಎಂಗಳೊಂದಿಗೆ ನಿಕಟ ಸಂಪರ್ಕ ಹೊಂದಿದೆ. ಇದು ವಾಸ್ತವವಾಗಿ, ಪಠ್ಯ ಆಧಾರಿತ ವಿಷಯವನ್ನು ರಚಿಸಲು ಸಹಾಯ ಮಾಡಲು ನಿರ್ದಿಷ್ಟವಾಗಿ ವಿನ್ಯಾಸಗೊಳಿಸಲಾದ ಒಂದು ರೀತಿಯ ಉತ್ಪಾದನಾ ಎಐ ಆಗಿದೆ.
ಇದನ್ನೂ ಓದಿ: ಇಂಡಿಯಾ ಮೊಬೈಲ್ ಕಾಂಗ್ರೆಸ್ ಆರಂಭ: 6ಜಿ ತಂತ್ರಜ್ಞಾನದ ನಾಯಕನಾಗಲಿದೆ ಭಾರತ ಎಂದ ಮೋದಿ