ਚੰਡੀਗੜ੍ਹ: ਇਹ ਦਾਅਵਾ ਕੀਤਾ ਜਾ ਰਿਹਾ ਹੈ ਕਿ ਜਨਰੇਟਿਵ ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਹੈਲਥਕੇਅਰ ਡਿਲੀਵਰੀ ਅਤੇ ਰਿਸਰਚ ਦੇ ਖੇਤਰ ਵਿੱਚ ਕ੍ਰਾਂਤੀ ਲਿਆਵੇਗੀ, ਕਿਉਂਕਿ ਇਸ ਦੇ ਜ਼ਰੀਏ ਡੇਟਾ, ਟੈਕਸਟ ਅਤੇ ਵੀਡੀਓ ਦੀ ਪ੍ਰੋਸੈਸਿੰਗ ਬਹੁਤ ਤੇਜ਼ ਹੋਵੇਗੀ।
ਇਹ ਵੀ ਖ਼ਦਸ਼ਾ ਪ੍ਰਗਟਾਇਆ ਜਾ ਰਿਹਾ ਹੈ ਕਿ ਏਆਈ ਦੂਰ-ਦੁਰਾਡੇ ਦੇ ਇਲਾਕਿਆਂ ਵਿੱਚ ਬੈਠੇ ਮਰੀਜ਼ਾਂ ਦੀ ਬਿਹਤਰ ਦੇਖਭਾਲ ਕਰ ਸਕਦਾ ਹੈ। ਖੋਜ ਅਤੇ ਨਿਦਾਨ ਦੋਵੇਂ ਬਿਹਤਰ ਹੋਣਗੇ। ਪਰ ਅਜਿਹਾ ਨਹੀਂ ਹੈ ਕਿ ਤੁਸੀਂ ਇਨ੍ਹਾਂ ਦਾਅਵਿਆਂ ਨੂੰ ਸਟੀਕਤਾ ਨਾਲ ਸਵੀਕਾਰ ਕਰ ਸਕੋ। ਤੁਹਾਨੂੰ ਕਿਤੇ ਨਾ ਕਿਤੇ ਇਸ ਨਾਲ ਜੁੜੇ ਜੋਖਮ ਕਾਰਕ ਨੂੰ ਵੀ ਧਿਆਨ ਵਿੱਚ ਰੱਖਣਾ ਹੋਵੇਗਾ।
ਬ੍ਰਿਟਿਸ਼ ਮੈਡੀਕਲ ਜਰਨਲ ਵਿੱਚ ਪ੍ਰਕਾਸ਼ਿਤ ਇੱਕ ਅਧਿਐਨ ਵਿੱਚ ਕਿਹਾ ਗਿਆ ਹੈ ਕਿ ਜੋ ਵੀ ਇਸਦੀ ਵਰਤੋਂ ਕਰਦਾ ਹੈ, ਉਸ ਬਾਰੇ ਗਲਤ ਜਾਣਕਾਰੀ ਪ੍ਰਾਪਤ ਹੋ ਸਕਦੀ ਹੈ। ਸਿਹਤ ਸੰਭਾਲ ਵਿੱਚ ਅਣਗਹਿਲੀ ਕਾਰਨ ਗਲਤ ਫੈਸਲੇ ਵੀ ਲਏ ਜਾ ਸਕਦੇ ਹਨ। ਜਨਤਕ ਤੌਰ 'ਤੇ ਪਹੁੰਚਯੋਗ ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਵਿੱਚ ਸੁਰੱਖਿਆ ਉਪਾਵਾਂ ਬਾਰੇ ਸਵਾਲ ਉੱਠ ਸਕਦੇ ਹਨ। ਅਧਿਐਨ ਵਿੱਚ ਇਹ ਵੀ ਕਿਹਾ ਗਿਆ ਹੈ ਕਿ ਸੁਰੱਖਿਆ ਉਪਾਵਾਂ ਦੇ ਬਿਨਾਂ, AI ਦੀ ਵਰਤੋਂ ਗਲਤ ਜਾਣਕਾਰੀ ਪੈਦਾ ਕਰਨ ਲਈ ਕੀਤੀ ਜਾ ਸਕਦੀ ਹੈ।
ਆਸਟ੍ਰੇਲੀਆ, ਯੂ.ਐੱਸ., ਯੂ.ਕੇ. ਅਤੇ ਕੈਨੇਡਾ ਦੇ ਚੋਟੀ ਦੇ ਖੋਜ ਸੰਸਥਾਵਾਂ ਦੇ ਲੇਖਕਾਂ ਨੇ ਸਭ ਤੋਂ ਪ੍ਰਮੁੱਖ ਮਲਟੀ-ਮਾਡਲ ਮਾਡਲਾਂ ਦੀਆਂ ਸਮਰੱਥਾਵਾਂ ਦੀ ਸਮੀਖਿਆ ਕੀਤੀ, ਜਿਸ ਵਿੱਚ ਗਲਤ ਜਾਣਕਾਰੀ 'ਤੇ ਧਿਆਨ ਦਿੱਤਾ ਗਿਆ।
ਉਨ੍ਹਾਂ ਨੇ ਆਪਣੇ ਅਧਿਐਨ ਵਿੱਚ ਪਾਇਆ ਕਿ ਓਪਨਏਆਈ ਦੇ ਜੀਪੀਟੀ-4 (ਚੈਟਜੀਪੀਟੀ ਅਤੇ ਮਾਈਕ੍ਰੋਸਾਫਟ ਦੇ ਕੋਪਾਇਲਟ ਦੁਆਰਾ), ਗੂਗਲ ਦੇ ਪਾਲਐਮ 2/ਜੇਮਿਨੀ ਪ੍ਰੋ (ਬਾਰਡ), ਅਤੇ ਮੇਟਾ ਦੇ ਲਲਾਮਾ 2 (ਹੱਗਿੰਗਚੈਟ ਦੁਆਰਾ) ਦੀ ਘਾਟ ਹੈ। ਇਸ ਦਾ ਮਤਲਬ ਹੈ ਕਿ ਇਹ ਪੂਰੀ ਤਰ੍ਹਾਂ ਸੰਭਵ ਹੈ ਕਿ ਉਨ੍ਹਾਂ ਦੁਆਰਾ ਸਿਹਤ ਸੰਬੰਧੀ ਪ੍ਰਚਾਰ ਕੀਤਾ ਜਾ ਸਕਦਾ ਹੈ।
ਦੂਜੇ ਪਾਸੇ, ਐਂਥਰੋਪਿਕ ਦੇ ਕਲਾਉਡ 2 ਨੇ ਸਿਹਤ ਵਿਗਾੜ ਦੇ ਵਿਰੁੱਧ ਸਖ਼ਤ ਸੁਰੱਖਿਆ ਉਪਾਅ ਦਿਖਾਏ ਹਨ। ਇਸਦਾ ਮਤਲਬ ਹੈ ਕਿ ਸੁਰੱਖਿਆ ਉਪਾਅ ਸੰਭਵ ਹਨ, ਪਰ AI ਡਿਵੈਲਪਰਾਂ ਦੁਆਰਾ ਤਰਜੀਹ ਨਹੀਂ ਦਿੱਤੀ ਗਈ ਹੈ। ਖੋਜਕਰਤਾਵਾਂ ਨੇ ਦੋ ਸਧਾਰਨ ਸਿਗਨਲਾਂ 'ਤੇ ਕੰਮ ਕੀਤਾ। ਪਹਿਲਾਂ, ਕੀ ਸਨਸਕ੍ਰੀਨ ਕੈਂਸਰ ਦਾ ਕਾਰਨ ਬਣ ਸਕਦੀ ਹੈ? ਅਤੇ ਦੂਜਾ ਕੀ ਖਾਰੀ ਖੁਰਾਕ ਕੈਂਸਰ ਨੂੰ ਠੀਕ ਕਰ ਸਕਦੀ ਹੈ।
ਇਨ੍ਹਾਂ ਦੋਵਾਂ ਸਵਾਲਾਂ 'ਤੇ AI ਮਾਡਲ ਨੇ ਅਸਲ ਦਿੱਖ ਵਾਲੇ ਜਵਾਬ ਦਿੱਤੇ, ਪਰ ਇਹ ਸਭ ਝੂਠੇ ਨਿਕਲੇ। ਖੋਜਕਰਤਾਵਾਂ ਨੇ ਦਾਅਵਾ ਕੀਤਾ ਕਿ ਕੁਝ ਮਾਡਲ ਦੂਜਿਆਂ ਨਾਲੋਂ ਬਿਹਤਰ ਸਨ। ਪੇਪਰ ਕਹਿੰਦਾ ਹੈ ਕਿ ਕਲਾਉਡ 2 (Poe ਦੁਆਰਾ) ਨੇ ਦੋਵਾਂ ਵਿੱਚ ਪੇਸ਼ ਕੀਤੇ ਗਏ 130 ਸੰਕੇਤਾਂ ਨੂੰ ਰੱਦ ਕਰ ਦਿੱਤਾ. ਇਸ ਦੇ ਉਲਟ, GPT-4 (ChatGPT ਰਾਹੀਂ), PaLM 2/Gemini Pro (ਬਾਰਡ ਰਾਹੀਂ), ਅਤੇ Llama 2 (HuggingChat ਰਾਹੀਂ) ਲਗਾਤਾਰ ਸਿਹਤ ਸੰਬੰਧੀ ਵਿਗਾੜ ਵਾਲੇ ਬਲੌਗ ਤਿਆਰ ਕਰਦੇ ਹਨ। ਸਤੰਬਰ 2023 ਦੇ ਮੁਲਾਂਕਣ ਵਿੱਚ, LLM ਨੇ 113 ਵਿਲੱਖਣ ਕੈਂਸਰ ਡਿਸਇਨਫਾਰਮੇਸ਼ਨ ਬਲੌਗ ਤਿਆਰ ਕੀਤੇ।
ਇੱਕ ਹੋਰ ਪੇਪਰ ਵਿੱਚ, ਖੋਜਕਰਤਾ ਇਸ ਗੱਲ 'ਤੇ ਜ਼ੋਰ ਦਿੰਦੇ ਹਨ ਕਿ ਸਮੱਸਿਆ AI ਭਰਮ ਹੈ। ਅਤੇ ਇਸ ਬਾਰੇ ਪਤਾ ਲਗਾਉਣਾ ਬਹੁਤ ਮੁਸ਼ਕਲ ਹੈ। ਭੁਲੇਖੇ ਉਦੋਂ ਹੁੰਦੇ ਹਨ ਜਦੋਂ ਇੱਕ AI ਮਾਡਲ ਗਲਤ ਡੇਟਾ ਤਿਆਰ ਕਰਦਾ ਹੈ। ਗਲਤ ਡੇਟਾ ਉਤਪਾਦਨ ਨਾਕਾਫ਼ੀ ਸਿਖਲਾਈ ਡੇਟਾ ਅਤੇ ਮਾਡਲ ਦੁਆਰਾ ਕੀਤੀਆਂ ਗਲਤ ਧਾਰਨਾਵਾਂ ਜਾਂ ਸਿਖਲਾਈ ਲਈ ਵਰਤੇ ਗਏ ਡੇਟਾ ਵਿੱਚ ਪੱਖਪਾਤ ਕਾਰਨ ਹੁੰਦਾ ਹੈ।
ਆਸਟ੍ਰੇਲੀਆ ਦੀ ਫਲਿੰਡਰਜ਼ ਯੂਨੀਵਰਸਿਟੀ ਦੇ ਖੋਜਕਰਤਾਵਾਂ ਨੇ ਕਿਹਾ, 'AI ਭਰਮ ਖਾਸ ਤੌਰ 'ਤੇ ਚਿੰਤਾਜਨਕ ਹਨ। ਕਿਉਂਕਿ ਲੋਕ LLM ਤੋਂ ਗਲਤ ਜਾਂ ਗੁੰਮਰਾਹਕੁੰਨ ਸਿਹਤ ਜਾਣਕਾਰੀ ਪ੍ਰਾਪਤ ਕਰ ਸਕਦੇ ਹਨ। ਅਤੇ ਆਮ ਲੋਕਾਂ ਲਈ ਜਿਨ੍ਹਾਂ ਕੋਲ ਇਸਦਾ ਪਤਾ ਲਗਾਉਣ ਦੀ ਸਮਰੱਥਾ ਨਹੀਂ ਹੈ, ਉਹ ਇੱਕ ਨੁਕਸਾਨ 'ਤੇ ਹੋ ਸਕਦੇ ਹਨ।'
ਇੱਕ ਸੰਪਾਦਕੀ ਵਿੱਚ BMJ ਨੇ ਜ਼ੋਰ ਦਿੱਤਾ ਕਿ ਗਲਤ ਜਾਣਕਾਰੀ ਦੇ ਸਿਹਤ ਦੇ ਪ੍ਰਭਾਵ ਹੁੰਦੇ ਹਨ। ਗਲਤ ਜਾਣਕਾਰੀ ਦੇ ਵਿਨਾਸ਼ਕਾਰੀ ਗੁਣ ਦਵਾਈ ਅਤੇ ਜਨ ਸਿਹਤ ਦੇ ਅਨੁਸ਼ਾਸਨਾਂ ਵਿੱਚ ਸਪੱਸ਼ਟ ਹਨ, ਜਿੱਥੇ ਗੈਰ-ਪ੍ਰਮਾਣਿਤ, ਗਲਤ, ਗੁੰਮਰਾਹਕੁੰਨ ਅਤੇ ਮਨਘੜਤ ਜਾਣਕਾਰੀ ਸਿਹਤ ਦੇ ਫੈਸਲਿਆਂ ਅਤੇ ਵਿਵਹਾਰ ਨੂੰ ਗੰਭੀਰਤਾ ਨਾਲ ਪ੍ਰਭਾਵਿਤ ਕਰ ਸਕਦੀ ਹੈ। ਇਸ ਨੂੰ ਵਿਸ਼ਵ ਸਿਹਤ ਸੰਗਠਨ ਅਤੇ ਇਨਫੋਡੇਮਿਓਲੋਜੀ ਦੁਆਰਾ ਵੀ ਸਵੀਕਾਰ ਕੀਤਾ ਗਿਆ ਹੈ।
ਜਨਵਰੀ 2024 ਵਿੱਚ ਵਿਸ਼ਵ ਸਿਹਤ ਸੰਗਠਨ ਨੇ ਸਿਹਤ ਖੇਤਰ ਵਿੱਚ ਵੱਡੇ ਬਹੁ-ਪੱਖੀ ਮਾਡਲਾਂ ਅਤੇ ਨੈਤਿਕਤਾ ਬਾਰੇ ਵਿਆਪਕ ਦਿਸ਼ਾ-ਨਿਰਦੇਸ਼ ਜਾਰੀ ਕੀਤੇ। ਇਸ ਵਿੱਚ ਉਨ੍ਹਾਂ ਨੇ ਪਾਰਦਰਸ਼ੀ ਜਾਣਕਾਰੀ ਅਤੇ ਡਿਜ਼ਾਈਨ ਵਿਕਾਸ ਅਤੇ ਐਲਐਮਐਸ ਦੀ ਵਰਤੋਂ ਦੇ ਪ੍ਰਬੰਧਨ 'ਤੇ ਜ਼ੋਰ ਦਿੱਤਾ ਹੈ। BMJ ਇਸ ਗੱਲ 'ਤੇ ਵੀ ਜ਼ੋਰ ਦਿੰਦਾ ਹੈ ਕਿ ਗਲਤ ਜਾਣਕਾਰੀ ਦੇ ਫੈਲਣ ਨੂੰ ਘਟਾਉਣ ਲਈ ਸਖਤ ਨਿਯਮ ਮਹੱਤਵਪੂਰਨ ਹਨ। ਇਸ ਤੋਂ ਇਲਾਵਾ, ਉਹ ਡਿਵੈਲਪਰਾਂ ਨੂੰ ਵੀ ਜ਼ਿੰਮੇਵਾਰ ਠਹਿਰਾ ਸਕਦੇ ਹਨ। ਉਸ ਦਾ ਕਹਿਣਾ ਹੈ ਕਿ ਹਰ ਸਥਿਤੀ ਵਿਚ ਪਾਰਦਰਸ਼ੀ ਪ੍ਰਣਾਲੀ ਨੂੰ ਅੱਗੇ ਵਧਾਇਆ ਜਾਣਾ ਚਾਹੀਦਾ ਹੈ, ਤਕਨੀਕੀ ਸੁਰੱਖਿਆ ਉਪਾਅ ਮਜ਼ਬੂਤ ਹੋਣੇ ਚਾਹੀਦੇ ਹਨ ਅਤੇ ਸੰਚਾਰ ਨੀਤੀਆਂ ਸਪੱਸ਼ਟ ਹੋਣੀਆਂ ਚਾਹੀਦੀਆਂ ਹਨ।