ETV Bharat / opinion

'ਏਆਈ 'ਤੇ ਅੰਨ੍ਹੇਵਾਹ ਭਰੋਸਾ ਨਹੀਂ ਕੀਤਾ ਜਾ ਸਕਦਾ' - PUBLICALY ACCESSIBLE AI

AI ਦੇ ਕਾਰਨ ਸਾਨੂੰ ਜੋ ਸੁਵਿਧਾਵਾਂ ਮਿਲ ਰਹੀਆਂ ਹਨ, ਉਹ ਬੇਸ਼ੱਕ ਕ੍ਰਾਂਤੀ ਲਿਆ ਸਕਦੀਆਂ ਹਨ, ਪਰ ਇਸਦੇ ਨਾਲ ਹੀ ਖ਼ਤਰੇ ਵੀ ਵਧਦੇ ਜਾ ਰਹੇ ਹਨ ਅਤੇ ਸਭ ਤੋਂ ਵੱਡਾ ਖ਼ਤਰਾ ਮੈਡੀਕਲ ਖੇਤਰ ਵਿੱਚ ਹੈ। ਬ੍ਰਿਟਿਸ਼ ਮੈਡੀਕਲ ਜਰਨਲ ਨੇ ਆਪਣੇ ਇੱਕ ਲੇਖ ਵਿੱਚ ਦਾਅਵਾ ਕੀਤਾ ਹੈ ਕਿ ਜੇਕਰ ਗਲਤ ਡੇਟਾ ਇਕੱਠਾ ਕੀਤਾ ਜਾਂਦਾ ਹੈ, ਤਾਂ ਤੁਹਾਨੂੰ ਇਸਦਾ ਭੁਗਤਾਨ ਕਰਨਾ ਪਵੇਗਾ।

Publically Accessible AI
Publically Accessible AI
author img

By Toufiq Rashid

Published : Mar 29, 2024, 8:38 AM IST

ਚੰਡੀਗੜ੍ਹ: ਇਹ ਦਾਅਵਾ ਕੀਤਾ ਜਾ ਰਿਹਾ ਹੈ ਕਿ ਜਨਰੇਟਿਵ ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਹੈਲਥਕੇਅਰ ਡਿਲੀਵਰੀ ਅਤੇ ਰਿਸਰਚ ਦੇ ਖੇਤਰ ਵਿੱਚ ਕ੍ਰਾਂਤੀ ਲਿਆਵੇਗੀ, ਕਿਉਂਕਿ ਇਸ ਦੇ ਜ਼ਰੀਏ ਡੇਟਾ, ਟੈਕਸਟ ਅਤੇ ਵੀਡੀਓ ਦੀ ਪ੍ਰੋਸੈਸਿੰਗ ਬਹੁਤ ਤੇਜ਼ ਹੋਵੇਗੀ।

ਇਹ ਵੀ ਖ਼ਦਸ਼ਾ ਪ੍ਰਗਟਾਇਆ ਜਾ ਰਿਹਾ ਹੈ ਕਿ ਏਆਈ ਦੂਰ-ਦੁਰਾਡੇ ਦੇ ਇਲਾਕਿਆਂ ਵਿੱਚ ਬੈਠੇ ਮਰੀਜ਼ਾਂ ਦੀ ਬਿਹਤਰ ਦੇਖਭਾਲ ਕਰ ਸਕਦਾ ਹੈ। ਖੋਜ ਅਤੇ ਨਿਦਾਨ ਦੋਵੇਂ ਬਿਹਤਰ ਹੋਣਗੇ। ਪਰ ਅਜਿਹਾ ਨਹੀਂ ਹੈ ਕਿ ਤੁਸੀਂ ਇਨ੍ਹਾਂ ਦਾਅਵਿਆਂ ਨੂੰ ਸਟੀਕਤਾ ਨਾਲ ਸਵੀਕਾਰ ਕਰ ਸਕੋ। ਤੁਹਾਨੂੰ ਕਿਤੇ ਨਾ ਕਿਤੇ ਇਸ ਨਾਲ ਜੁੜੇ ਜੋਖਮ ਕਾਰਕ ਨੂੰ ਵੀ ਧਿਆਨ ਵਿੱਚ ਰੱਖਣਾ ਹੋਵੇਗਾ।

ਬ੍ਰਿਟਿਸ਼ ਮੈਡੀਕਲ ਜਰਨਲ ਵਿੱਚ ਪ੍ਰਕਾਸ਼ਿਤ ਇੱਕ ਅਧਿਐਨ ਵਿੱਚ ਕਿਹਾ ਗਿਆ ਹੈ ਕਿ ਜੋ ਵੀ ਇਸਦੀ ਵਰਤੋਂ ਕਰਦਾ ਹੈ, ਉਸ ਬਾਰੇ ਗਲਤ ਜਾਣਕਾਰੀ ਪ੍ਰਾਪਤ ਹੋ ਸਕਦੀ ਹੈ। ਸਿਹਤ ਸੰਭਾਲ ਵਿੱਚ ਅਣਗਹਿਲੀ ਕਾਰਨ ਗਲਤ ਫੈਸਲੇ ਵੀ ਲਏ ਜਾ ਸਕਦੇ ਹਨ। ਜਨਤਕ ਤੌਰ 'ਤੇ ਪਹੁੰਚਯੋਗ ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਵਿੱਚ ਸੁਰੱਖਿਆ ਉਪਾਵਾਂ ਬਾਰੇ ਸਵਾਲ ਉੱਠ ਸਕਦੇ ਹਨ। ਅਧਿਐਨ ਵਿੱਚ ਇਹ ਵੀ ਕਿਹਾ ਗਿਆ ਹੈ ਕਿ ਸੁਰੱਖਿਆ ਉਪਾਵਾਂ ਦੇ ਬਿਨਾਂ, AI ਦੀ ਵਰਤੋਂ ਗਲਤ ਜਾਣਕਾਰੀ ਪੈਦਾ ਕਰਨ ਲਈ ਕੀਤੀ ਜਾ ਸਕਦੀ ਹੈ।

ਆਸਟ੍ਰੇਲੀਆ, ਯੂ.ਐੱਸ., ਯੂ.ਕੇ. ਅਤੇ ਕੈਨੇਡਾ ਦੇ ਚੋਟੀ ਦੇ ਖੋਜ ਸੰਸਥਾਵਾਂ ਦੇ ਲੇਖਕਾਂ ਨੇ ਸਭ ਤੋਂ ਪ੍ਰਮੁੱਖ ਮਲਟੀ-ਮਾਡਲ ਮਾਡਲਾਂ ਦੀਆਂ ਸਮਰੱਥਾਵਾਂ ਦੀ ਸਮੀਖਿਆ ਕੀਤੀ, ਜਿਸ ਵਿੱਚ ਗਲਤ ਜਾਣਕਾਰੀ 'ਤੇ ਧਿਆਨ ਦਿੱਤਾ ਗਿਆ।

ਉਨ੍ਹਾਂ ਨੇ ਆਪਣੇ ਅਧਿਐਨ ਵਿੱਚ ਪਾਇਆ ਕਿ ਓਪਨਏਆਈ ਦੇ ਜੀਪੀਟੀ-4 (ਚੈਟਜੀਪੀਟੀ ਅਤੇ ਮਾਈਕ੍ਰੋਸਾਫਟ ਦੇ ਕੋਪਾਇਲਟ ਦੁਆਰਾ), ਗੂਗਲ ਦੇ ਪਾਲਐਮ 2/ਜੇਮਿਨੀ ਪ੍ਰੋ (ਬਾਰਡ), ਅਤੇ ਮੇਟਾ ਦੇ ਲਲਾਮਾ 2 (ਹੱਗਿੰਗਚੈਟ ਦੁਆਰਾ) ਦੀ ਘਾਟ ਹੈ। ਇਸ ਦਾ ਮਤਲਬ ਹੈ ਕਿ ਇਹ ਪੂਰੀ ਤਰ੍ਹਾਂ ਸੰਭਵ ਹੈ ਕਿ ਉਨ੍ਹਾਂ ਦੁਆਰਾ ਸਿਹਤ ਸੰਬੰਧੀ ਪ੍ਰਚਾਰ ਕੀਤਾ ਜਾ ਸਕਦਾ ਹੈ।

ਦੂਜੇ ਪਾਸੇ, ਐਂਥਰੋਪਿਕ ਦੇ ਕਲਾਉਡ 2 ਨੇ ਸਿਹਤ ਵਿਗਾੜ ਦੇ ਵਿਰੁੱਧ ਸਖ਼ਤ ਸੁਰੱਖਿਆ ਉਪਾਅ ਦਿਖਾਏ ਹਨ। ਇਸਦਾ ਮਤਲਬ ਹੈ ਕਿ ਸੁਰੱਖਿਆ ਉਪਾਅ ਸੰਭਵ ਹਨ, ਪਰ AI ਡਿਵੈਲਪਰਾਂ ਦੁਆਰਾ ਤਰਜੀਹ ਨਹੀਂ ਦਿੱਤੀ ਗਈ ਹੈ। ਖੋਜਕਰਤਾਵਾਂ ਨੇ ਦੋ ਸਧਾਰਨ ਸਿਗਨਲਾਂ 'ਤੇ ਕੰਮ ਕੀਤਾ। ਪਹਿਲਾਂ, ਕੀ ਸਨਸਕ੍ਰੀਨ ਕੈਂਸਰ ਦਾ ਕਾਰਨ ਬਣ ਸਕਦੀ ਹੈ? ਅਤੇ ਦੂਜਾ ਕੀ ਖਾਰੀ ਖੁਰਾਕ ਕੈਂਸਰ ਨੂੰ ਠੀਕ ਕਰ ਸਕਦੀ ਹੈ।

ਇਨ੍ਹਾਂ ਦੋਵਾਂ ਸਵਾਲਾਂ 'ਤੇ AI ਮਾਡਲ ਨੇ ਅਸਲ ਦਿੱਖ ਵਾਲੇ ਜਵਾਬ ਦਿੱਤੇ, ਪਰ ਇਹ ਸਭ ਝੂਠੇ ਨਿਕਲੇ। ਖੋਜਕਰਤਾਵਾਂ ਨੇ ਦਾਅਵਾ ਕੀਤਾ ਕਿ ਕੁਝ ਮਾਡਲ ਦੂਜਿਆਂ ਨਾਲੋਂ ਬਿਹਤਰ ਸਨ। ਪੇਪਰ ਕਹਿੰਦਾ ਹੈ ਕਿ ਕਲਾਉਡ 2 (Poe ਦੁਆਰਾ) ਨੇ ਦੋਵਾਂ ਵਿੱਚ ਪੇਸ਼ ਕੀਤੇ ਗਏ 130 ਸੰਕੇਤਾਂ ਨੂੰ ਰੱਦ ਕਰ ਦਿੱਤਾ. ਇਸ ਦੇ ਉਲਟ, GPT-4 (ChatGPT ਰਾਹੀਂ), PaLM 2/Gemini Pro (ਬਾਰਡ ਰਾਹੀਂ), ਅਤੇ Llama 2 (HuggingChat ਰਾਹੀਂ) ਲਗਾਤਾਰ ਸਿਹਤ ਸੰਬੰਧੀ ਵਿਗਾੜ ਵਾਲੇ ਬਲੌਗ ਤਿਆਰ ਕਰਦੇ ਹਨ। ਸਤੰਬਰ 2023 ਦੇ ਮੁਲਾਂਕਣ ਵਿੱਚ, LLM ਨੇ 113 ਵਿਲੱਖਣ ਕੈਂਸਰ ਡਿਸਇਨਫਾਰਮੇਸ਼ਨ ਬਲੌਗ ਤਿਆਰ ਕੀਤੇ।

ਇੱਕ ਹੋਰ ਪੇਪਰ ਵਿੱਚ, ਖੋਜਕਰਤਾ ਇਸ ਗੱਲ 'ਤੇ ਜ਼ੋਰ ਦਿੰਦੇ ਹਨ ਕਿ ਸਮੱਸਿਆ AI ਭਰਮ ਹੈ। ਅਤੇ ਇਸ ਬਾਰੇ ਪਤਾ ਲਗਾਉਣਾ ਬਹੁਤ ਮੁਸ਼ਕਲ ਹੈ। ਭੁਲੇਖੇ ਉਦੋਂ ਹੁੰਦੇ ਹਨ ਜਦੋਂ ਇੱਕ AI ਮਾਡਲ ਗਲਤ ਡੇਟਾ ਤਿਆਰ ਕਰਦਾ ਹੈ। ਗਲਤ ਡੇਟਾ ਉਤਪਾਦਨ ਨਾਕਾਫ਼ੀ ਸਿਖਲਾਈ ਡੇਟਾ ਅਤੇ ਮਾਡਲ ਦੁਆਰਾ ਕੀਤੀਆਂ ਗਲਤ ਧਾਰਨਾਵਾਂ ਜਾਂ ਸਿਖਲਾਈ ਲਈ ਵਰਤੇ ਗਏ ਡੇਟਾ ਵਿੱਚ ਪੱਖਪਾਤ ਕਾਰਨ ਹੁੰਦਾ ਹੈ।

ਆਸਟ੍ਰੇਲੀਆ ਦੀ ਫਲਿੰਡਰਜ਼ ਯੂਨੀਵਰਸਿਟੀ ਦੇ ਖੋਜਕਰਤਾਵਾਂ ਨੇ ਕਿਹਾ, 'AI ਭਰਮ ਖਾਸ ਤੌਰ 'ਤੇ ਚਿੰਤਾਜਨਕ ਹਨ। ਕਿਉਂਕਿ ਲੋਕ LLM ਤੋਂ ਗਲਤ ਜਾਂ ਗੁੰਮਰਾਹਕੁੰਨ ਸਿਹਤ ਜਾਣਕਾਰੀ ਪ੍ਰਾਪਤ ਕਰ ਸਕਦੇ ਹਨ। ਅਤੇ ਆਮ ਲੋਕਾਂ ਲਈ ਜਿਨ੍ਹਾਂ ਕੋਲ ਇਸਦਾ ਪਤਾ ਲਗਾਉਣ ਦੀ ਸਮਰੱਥਾ ਨਹੀਂ ਹੈ, ਉਹ ਇੱਕ ਨੁਕਸਾਨ 'ਤੇ ਹੋ ਸਕਦੇ ਹਨ।'

ਇੱਕ ਸੰਪਾਦਕੀ ਵਿੱਚ BMJ ਨੇ ਜ਼ੋਰ ਦਿੱਤਾ ਕਿ ਗਲਤ ਜਾਣਕਾਰੀ ਦੇ ਸਿਹਤ ਦੇ ਪ੍ਰਭਾਵ ਹੁੰਦੇ ਹਨ। ਗਲਤ ਜਾਣਕਾਰੀ ਦੇ ਵਿਨਾਸ਼ਕਾਰੀ ਗੁਣ ਦਵਾਈ ਅਤੇ ਜਨ ਸਿਹਤ ਦੇ ਅਨੁਸ਼ਾਸਨਾਂ ਵਿੱਚ ਸਪੱਸ਼ਟ ਹਨ, ਜਿੱਥੇ ਗੈਰ-ਪ੍ਰਮਾਣਿਤ, ਗਲਤ, ਗੁੰਮਰਾਹਕੁੰਨ ਅਤੇ ਮਨਘੜਤ ਜਾਣਕਾਰੀ ਸਿਹਤ ਦੇ ਫੈਸਲਿਆਂ ਅਤੇ ਵਿਵਹਾਰ ਨੂੰ ਗੰਭੀਰਤਾ ਨਾਲ ਪ੍ਰਭਾਵਿਤ ਕਰ ਸਕਦੀ ਹੈ। ਇਸ ਨੂੰ ਵਿਸ਼ਵ ਸਿਹਤ ਸੰਗਠਨ ਅਤੇ ਇਨਫੋਡੇਮਿਓਲੋਜੀ ਦੁਆਰਾ ਵੀ ਸਵੀਕਾਰ ਕੀਤਾ ਗਿਆ ਹੈ।

ਜਨਵਰੀ 2024 ਵਿੱਚ ਵਿਸ਼ਵ ਸਿਹਤ ਸੰਗਠਨ ਨੇ ਸਿਹਤ ਖੇਤਰ ਵਿੱਚ ਵੱਡੇ ਬਹੁ-ਪੱਖੀ ਮਾਡਲਾਂ ਅਤੇ ਨੈਤਿਕਤਾ ਬਾਰੇ ਵਿਆਪਕ ਦਿਸ਼ਾ-ਨਿਰਦੇਸ਼ ਜਾਰੀ ਕੀਤੇ। ਇਸ ਵਿੱਚ ਉਨ੍ਹਾਂ ਨੇ ਪਾਰਦਰਸ਼ੀ ਜਾਣਕਾਰੀ ਅਤੇ ਡਿਜ਼ਾਈਨ ਵਿਕਾਸ ਅਤੇ ਐਲਐਮਐਸ ਦੀ ਵਰਤੋਂ ਦੇ ਪ੍ਰਬੰਧਨ 'ਤੇ ਜ਼ੋਰ ਦਿੱਤਾ ਹੈ। BMJ ਇਸ ਗੱਲ 'ਤੇ ਵੀ ਜ਼ੋਰ ਦਿੰਦਾ ਹੈ ਕਿ ਗਲਤ ਜਾਣਕਾਰੀ ਦੇ ਫੈਲਣ ਨੂੰ ਘਟਾਉਣ ਲਈ ਸਖਤ ਨਿਯਮ ਮਹੱਤਵਪੂਰਨ ਹਨ। ਇਸ ਤੋਂ ਇਲਾਵਾ, ਉਹ ਡਿਵੈਲਪਰਾਂ ਨੂੰ ਵੀ ਜ਼ਿੰਮੇਵਾਰ ਠਹਿਰਾ ਸਕਦੇ ਹਨ। ਉਸ ਦਾ ਕਹਿਣਾ ਹੈ ਕਿ ਹਰ ਸਥਿਤੀ ਵਿਚ ਪਾਰਦਰਸ਼ੀ ਪ੍ਰਣਾਲੀ ਨੂੰ ਅੱਗੇ ਵਧਾਇਆ ਜਾਣਾ ਚਾਹੀਦਾ ਹੈ, ਤਕਨੀਕੀ ਸੁਰੱਖਿਆ ਉਪਾਅ ਮਜ਼ਬੂਤ ​​ਹੋਣੇ ਚਾਹੀਦੇ ਹਨ ਅਤੇ ਸੰਚਾਰ ਨੀਤੀਆਂ ਸਪੱਸ਼ਟ ਹੋਣੀਆਂ ਚਾਹੀਦੀਆਂ ਹਨ।

ਚੰਡੀਗੜ੍ਹ: ਇਹ ਦਾਅਵਾ ਕੀਤਾ ਜਾ ਰਿਹਾ ਹੈ ਕਿ ਜਨਰੇਟਿਵ ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਹੈਲਥਕੇਅਰ ਡਿਲੀਵਰੀ ਅਤੇ ਰਿਸਰਚ ਦੇ ਖੇਤਰ ਵਿੱਚ ਕ੍ਰਾਂਤੀ ਲਿਆਵੇਗੀ, ਕਿਉਂਕਿ ਇਸ ਦੇ ਜ਼ਰੀਏ ਡੇਟਾ, ਟੈਕਸਟ ਅਤੇ ਵੀਡੀਓ ਦੀ ਪ੍ਰੋਸੈਸਿੰਗ ਬਹੁਤ ਤੇਜ਼ ਹੋਵੇਗੀ।

ਇਹ ਵੀ ਖ਼ਦਸ਼ਾ ਪ੍ਰਗਟਾਇਆ ਜਾ ਰਿਹਾ ਹੈ ਕਿ ਏਆਈ ਦੂਰ-ਦੁਰਾਡੇ ਦੇ ਇਲਾਕਿਆਂ ਵਿੱਚ ਬੈਠੇ ਮਰੀਜ਼ਾਂ ਦੀ ਬਿਹਤਰ ਦੇਖਭਾਲ ਕਰ ਸਕਦਾ ਹੈ। ਖੋਜ ਅਤੇ ਨਿਦਾਨ ਦੋਵੇਂ ਬਿਹਤਰ ਹੋਣਗੇ। ਪਰ ਅਜਿਹਾ ਨਹੀਂ ਹੈ ਕਿ ਤੁਸੀਂ ਇਨ੍ਹਾਂ ਦਾਅਵਿਆਂ ਨੂੰ ਸਟੀਕਤਾ ਨਾਲ ਸਵੀਕਾਰ ਕਰ ਸਕੋ। ਤੁਹਾਨੂੰ ਕਿਤੇ ਨਾ ਕਿਤੇ ਇਸ ਨਾਲ ਜੁੜੇ ਜੋਖਮ ਕਾਰਕ ਨੂੰ ਵੀ ਧਿਆਨ ਵਿੱਚ ਰੱਖਣਾ ਹੋਵੇਗਾ।

ਬ੍ਰਿਟਿਸ਼ ਮੈਡੀਕਲ ਜਰਨਲ ਵਿੱਚ ਪ੍ਰਕਾਸ਼ਿਤ ਇੱਕ ਅਧਿਐਨ ਵਿੱਚ ਕਿਹਾ ਗਿਆ ਹੈ ਕਿ ਜੋ ਵੀ ਇਸਦੀ ਵਰਤੋਂ ਕਰਦਾ ਹੈ, ਉਸ ਬਾਰੇ ਗਲਤ ਜਾਣਕਾਰੀ ਪ੍ਰਾਪਤ ਹੋ ਸਕਦੀ ਹੈ। ਸਿਹਤ ਸੰਭਾਲ ਵਿੱਚ ਅਣਗਹਿਲੀ ਕਾਰਨ ਗਲਤ ਫੈਸਲੇ ਵੀ ਲਏ ਜਾ ਸਕਦੇ ਹਨ। ਜਨਤਕ ਤੌਰ 'ਤੇ ਪਹੁੰਚਯੋਗ ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਵਿੱਚ ਸੁਰੱਖਿਆ ਉਪਾਵਾਂ ਬਾਰੇ ਸਵਾਲ ਉੱਠ ਸਕਦੇ ਹਨ। ਅਧਿਐਨ ਵਿੱਚ ਇਹ ਵੀ ਕਿਹਾ ਗਿਆ ਹੈ ਕਿ ਸੁਰੱਖਿਆ ਉਪਾਵਾਂ ਦੇ ਬਿਨਾਂ, AI ਦੀ ਵਰਤੋਂ ਗਲਤ ਜਾਣਕਾਰੀ ਪੈਦਾ ਕਰਨ ਲਈ ਕੀਤੀ ਜਾ ਸਕਦੀ ਹੈ।

ਆਸਟ੍ਰੇਲੀਆ, ਯੂ.ਐੱਸ., ਯੂ.ਕੇ. ਅਤੇ ਕੈਨੇਡਾ ਦੇ ਚੋਟੀ ਦੇ ਖੋਜ ਸੰਸਥਾਵਾਂ ਦੇ ਲੇਖਕਾਂ ਨੇ ਸਭ ਤੋਂ ਪ੍ਰਮੁੱਖ ਮਲਟੀ-ਮਾਡਲ ਮਾਡਲਾਂ ਦੀਆਂ ਸਮਰੱਥਾਵਾਂ ਦੀ ਸਮੀਖਿਆ ਕੀਤੀ, ਜਿਸ ਵਿੱਚ ਗਲਤ ਜਾਣਕਾਰੀ 'ਤੇ ਧਿਆਨ ਦਿੱਤਾ ਗਿਆ।

ਉਨ੍ਹਾਂ ਨੇ ਆਪਣੇ ਅਧਿਐਨ ਵਿੱਚ ਪਾਇਆ ਕਿ ਓਪਨਏਆਈ ਦੇ ਜੀਪੀਟੀ-4 (ਚੈਟਜੀਪੀਟੀ ਅਤੇ ਮਾਈਕ੍ਰੋਸਾਫਟ ਦੇ ਕੋਪਾਇਲਟ ਦੁਆਰਾ), ਗੂਗਲ ਦੇ ਪਾਲਐਮ 2/ਜੇਮਿਨੀ ਪ੍ਰੋ (ਬਾਰਡ), ਅਤੇ ਮੇਟਾ ਦੇ ਲਲਾਮਾ 2 (ਹੱਗਿੰਗਚੈਟ ਦੁਆਰਾ) ਦੀ ਘਾਟ ਹੈ। ਇਸ ਦਾ ਮਤਲਬ ਹੈ ਕਿ ਇਹ ਪੂਰੀ ਤਰ੍ਹਾਂ ਸੰਭਵ ਹੈ ਕਿ ਉਨ੍ਹਾਂ ਦੁਆਰਾ ਸਿਹਤ ਸੰਬੰਧੀ ਪ੍ਰਚਾਰ ਕੀਤਾ ਜਾ ਸਕਦਾ ਹੈ।

ਦੂਜੇ ਪਾਸੇ, ਐਂਥਰੋਪਿਕ ਦੇ ਕਲਾਉਡ 2 ਨੇ ਸਿਹਤ ਵਿਗਾੜ ਦੇ ਵਿਰੁੱਧ ਸਖ਼ਤ ਸੁਰੱਖਿਆ ਉਪਾਅ ਦਿਖਾਏ ਹਨ। ਇਸਦਾ ਮਤਲਬ ਹੈ ਕਿ ਸੁਰੱਖਿਆ ਉਪਾਅ ਸੰਭਵ ਹਨ, ਪਰ AI ਡਿਵੈਲਪਰਾਂ ਦੁਆਰਾ ਤਰਜੀਹ ਨਹੀਂ ਦਿੱਤੀ ਗਈ ਹੈ। ਖੋਜਕਰਤਾਵਾਂ ਨੇ ਦੋ ਸਧਾਰਨ ਸਿਗਨਲਾਂ 'ਤੇ ਕੰਮ ਕੀਤਾ। ਪਹਿਲਾਂ, ਕੀ ਸਨਸਕ੍ਰੀਨ ਕੈਂਸਰ ਦਾ ਕਾਰਨ ਬਣ ਸਕਦੀ ਹੈ? ਅਤੇ ਦੂਜਾ ਕੀ ਖਾਰੀ ਖੁਰਾਕ ਕੈਂਸਰ ਨੂੰ ਠੀਕ ਕਰ ਸਕਦੀ ਹੈ।

ਇਨ੍ਹਾਂ ਦੋਵਾਂ ਸਵਾਲਾਂ 'ਤੇ AI ਮਾਡਲ ਨੇ ਅਸਲ ਦਿੱਖ ਵਾਲੇ ਜਵਾਬ ਦਿੱਤੇ, ਪਰ ਇਹ ਸਭ ਝੂਠੇ ਨਿਕਲੇ। ਖੋਜਕਰਤਾਵਾਂ ਨੇ ਦਾਅਵਾ ਕੀਤਾ ਕਿ ਕੁਝ ਮਾਡਲ ਦੂਜਿਆਂ ਨਾਲੋਂ ਬਿਹਤਰ ਸਨ। ਪੇਪਰ ਕਹਿੰਦਾ ਹੈ ਕਿ ਕਲਾਉਡ 2 (Poe ਦੁਆਰਾ) ਨੇ ਦੋਵਾਂ ਵਿੱਚ ਪੇਸ਼ ਕੀਤੇ ਗਏ 130 ਸੰਕੇਤਾਂ ਨੂੰ ਰੱਦ ਕਰ ਦਿੱਤਾ. ਇਸ ਦੇ ਉਲਟ, GPT-4 (ChatGPT ਰਾਹੀਂ), PaLM 2/Gemini Pro (ਬਾਰਡ ਰਾਹੀਂ), ਅਤੇ Llama 2 (HuggingChat ਰਾਹੀਂ) ਲਗਾਤਾਰ ਸਿਹਤ ਸੰਬੰਧੀ ਵਿਗਾੜ ਵਾਲੇ ਬਲੌਗ ਤਿਆਰ ਕਰਦੇ ਹਨ। ਸਤੰਬਰ 2023 ਦੇ ਮੁਲਾਂਕਣ ਵਿੱਚ, LLM ਨੇ 113 ਵਿਲੱਖਣ ਕੈਂਸਰ ਡਿਸਇਨਫਾਰਮੇਸ਼ਨ ਬਲੌਗ ਤਿਆਰ ਕੀਤੇ।

ਇੱਕ ਹੋਰ ਪੇਪਰ ਵਿੱਚ, ਖੋਜਕਰਤਾ ਇਸ ਗੱਲ 'ਤੇ ਜ਼ੋਰ ਦਿੰਦੇ ਹਨ ਕਿ ਸਮੱਸਿਆ AI ਭਰਮ ਹੈ। ਅਤੇ ਇਸ ਬਾਰੇ ਪਤਾ ਲਗਾਉਣਾ ਬਹੁਤ ਮੁਸ਼ਕਲ ਹੈ। ਭੁਲੇਖੇ ਉਦੋਂ ਹੁੰਦੇ ਹਨ ਜਦੋਂ ਇੱਕ AI ਮਾਡਲ ਗਲਤ ਡੇਟਾ ਤਿਆਰ ਕਰਦਾ ਹੈ। ਗਲਤ ਡੇਟਾ ਉਤਪਾਦਨ ਨਾਕਾਫ਼ੀ ਸਿਖਲਾਈ ਡੇਟਾ ਅਤੇ ਮਾਡਲ ਦੁਆਰਾ ਕੀਤੀਆਂ ਗਲਤ ਧਾਰਨਾਵਾਂ ਜਾਂ ਸਿਖਲਾਈ ਲਈ ਵਰਤੇ ਗਏ ਡੇਟਾ ਵਿੱਚ ਪੱਖਪਾਤ ਕਾਰਨ ਹੁੰਦਾ ਹੈ।

ਆਸਟ੍ਰੇਲੀਆ ਦੀ ਫਲਿੰਡਰਜ਼ ਯੂਨੀਵਰਸਿਟੀ ਦੇ ਖੋਜਕਰਤਾਵਾਂ ਨੇ ਕਿਹਾ, 'AI ਭਰਮ ਖਾਸ ਤੌਰ 'ਤੇ ਚਿੰਤਾਜਨਕ ਹਨ। ਕਿਉਂਕਿ ਲੋਕ LLM ਤੋਂ ਗਲਤ ਜਾਂ ਗੁੰਮਰਾਹਕੁੰਨ ਸਿਹਤ ਜਾਣਕਾਰੀ ਪ੍ਰਾਪਤ ਕਰ ਸਕਦੇ ਹਨ। ਅਤੇ ਆਮ ਲੋਕਾਂ ਲਈ ਜਿਨ੍ਹਾਂ ਕੋਲ ਇਸਦਾ ਪਤਾ ਲਗਾਉਣ ਦੀ ਸਮਰੱਥਾ ਨਹੀਂ ਹੈ, ਉਹ ਇੱਕ ਨੁਕਸਾਨ 'ਤੇ ਹੋ ਸਕਦੇ ਹਨ।'

ਇੱਕ ਸੰਪਾਦਕੀ ਵਿੱਚ BMJ ਨੇ ਜ਼ੋਰ ਦਿੱਤਾ ਕਿ ਗਲਤ ਜਾਣਕਾਰੀ ਦੇ ਸਿਹਤ ਦੇ ਪ੍ਰਭਾਵ ਹੁੰਦੇ ਹਨ। ਗਲਤ ਜਾਣਕਾਰੀ ਦੇ ਵਿਨਾਸ਼ਕਾਰੀ ਗੁਣ ਦਵਾਈ ਅਤੇ ਜਨ ਸਿਹਤ ਦੇ ਅਨੁਸ਼ਾਸਨਾਂ ਵਿੱਚ ਸਪੱਸ਼ਟ ਹਨ, ਜਿੱਥੇ ਗੈਰ-ਪ੍ਰਮਾਣਿਤ, ਗਲਤ, ਗੁੰਮਰਾਹਕੁੰਨ ਅਤੇ ਮਨਘੜਤ ਜਾਣਕਾਰੀ ਸਿਹਤ ਦੇ ਫੈਸਲਿਆਂ ਅਤੇ ਵਿਵਹਾਰ ਨੂੰ ਗੰਭੀਰਤਾ ਨਾਲ ਪ੍ਰਭਾਵਿਤ ਕਰ ਸਕਦੀ ਹੈ। ਇਸ ਨੂੰ ਵਿਸ਼ਵ ਸਿਹਤ ਸੰਗਠਨ ਅਤੇ ਇਨਫੋਡੇਮਿਓਲੋਜੀ ਦੁਆਰਾ ਵੀ ਸਵੀਕਾਰ ਕੀਤਾ ਗਿਆ ਹੈ।

ਜਨਵਰੀ 2024 ਵਿੱਚ ਵਿਸ਼ਵ ਸਿਹਤ ਸੰਗਠਨ ਨੇ ਸਿਹਤ ਖੇਤਰ ਵਿੱਚ ਵੱਡੇ ਬਹੁ-ਪੱਖੀ ਮਾਡਲਾਂ ਅਤੇ ਨੈਤਿਕਤਾ ਬਾਰੇ ਵਿਆਪਕ ਦਿਸ਼ਾ-ਨਿਰਦੇਸ਼ ਜਾਰੀ ਕੀਤੇ। ਇਸ ਵਿੱਚ ਉਨ੍ਹਾਂ ਨੇ ਪਾਰਦਰਸ਼ੀ ਜਾਣਕਾਰੀ ਅਤੇ ਡਿਜ਼ਾਈਨ ਵਿਕਾਸ ਅਤੇ ਐਲਐਮਐਸ ਦੀ ਵਰਤੋਂ ਦੇ ਪ੍ਰਬੰਧਨ 'ਤੇ ਜ਼ੋਰ ਦਿੱਤਾ ਹੈ। BMJ ਇਸ ਗੱਲ 'ਤੇ ਵੀ ਜ਼ੋਰ ਦਿੰਦਾ ਹੈ ਕਿ ਗਲਤ ਜਾਣਕਾਰੀ ਦੇ ਫੈਲਣ ਨੂੰ ਘਟਾਉਣ ਲਈ ਸਖਤ ਨਿਯਮ ਮਹੱਤਵਪੂਰਨ ਹਨ। ਇਸ ਤੋਂ ਇਲਾਵਾ, ਉਹ ਡਿਵੈਲਪਰਾਂ ਨੂੰ ਵੀ ਜ਼ਿੰਮੇਵਾਰ ਠਹਿਰਾ ਸਕਦੇ ਹਨ। ਉਸ ਦਾ ਕਹਿਣਾ ਹੈ ਕਿ ਹਰ ਸਥਿਤੀ ਵਿਚ ਪਾਰਦਰਸ਼ੀ ਪ੍ਰਣਾਲੀ ਨੂੰ ਅੱਗੇ ਵਧਾਇਆ ਜਾਣਾ ਚਾਹੀਦਾ ਹੈ, ਤਕਨੀਕੀ ਸੁਰੱਖਿਆ ਉਪਾਅ ਮਜ਼ਬੂਤ ​​ਹੋਣੇ ਚਾਹੀਦੇ ਹਨ ਅਤੇ ਸੰਚਾਰ ਨੀਤੀਆਂ ਸਪੱਸ਼ਟ ਹੋਣੀਆਂ ਚਾਹੀਦੀਆਂ ਹਨ।

ETV Bharat Logo

Copyright © 2024 Ushodaya Enterprises Pvt. Ltd., All Rights Reserved.