ਨਵੀਂ ਦਿੱਲੀ: ਕੀ ਤੁਸੀਂ ਕਦੇ ਸੋਚਿਆ ਹੈ ਕਿ ਚੰਦਰਮਾ 'ਤੇ ਮਨੁੱਖ ਦਾ ਪਹਿਲਾ ਕਦਮ ਕੋਈ ਕੰਮ ਸੀ? ਜਾਂ ਕੀ ਕੋਵਿਡ -19 ਵਾਇਰਸ ਇੱਕ ਬਾਇਓਵੈਪਨ ਵਜੋਂ ਫੈਲਿਆ ਸੀ? ਜਾਂ ਡੋਨਾਲਡ ਟਰੰਪ ਦੀ ਹੱਤਿਆ ਦੀ ਕੋਸ਼ਿਸ਼ ਇਸ ਸਾਲ ਦੀਆਂ ਅਮਰੀਕੀ ਰਾਸ਼ਟਰਪਤੀ ਚੋਣਾਂ ਤੋਂ ਪਹਿਲਾਂ ਆਪਣੀ ਪ੍ਰਸਿੱਧੀ ਵਧਾਉਣ ਲਈ ਕੀਤੀ ਗਈ ਸੀ? ਜਾਂ ਫਿਰ 1995 ਵਿਚ ਭਗਵਾਨ ਗਣੇਸ਼ ਦੀਆਂ ਮੂਰਤੀਆਂ ਨੂੰ ਦੁੱਧ ਚੜ੍ਹਾਇਆ ਗਿਆ ਸੀ?
ਇਹ ਸੰਭਵ ਹੈ ਕਿ ਤੁਹਾਡੇ ਮਨ ਵਿੱਚ ਲੰਬੇ ਸਮੇਂ ਤੋਂ ਅਜਿਹੀਆਂ ਧਾਰਨਾਵਾਂ ਹਨ। ਜਾਂ ਹੋ ਸਕਦਾ ਹੈ ਕਿ ਦੂਸਰਿਆਂ ਨੇ ਤੁਹਾਡੇ ਮਨ ਵਿੱਚ ਅਜਿਹੀਆਂ ਧਾਰਨਾਵਾਂ ਬੀਜੀਆਂ ਹੋਣ, ਚਿੰਤਾ ਨਾ ਕਰੋ, ਇੱਕ ਨਵੇਂ ਅਧਿਐਨ ਵਿੱਚ ਪਾਇਆ ਗਿਆ ਹੈ ਕਿ ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ (AI) ਅਜਿਹੀਆਂ ਸਾਰੀਆਂ ਸਾਜ਼ਿਸ਼ਾਂ ਅਤੇ ਝੂਠੇ ਵਿਸ਼ਵਾਸਾਂ ਨੂੰ ਦੂਰ ਕਰ ਸਕਦੀ ਹੈ।
ਇਸ ਮਹੀਨੇ ਦੇ ਸ਼ੁਰੂ ਵਿੱਚ ਸਾਇੰਸ ਜਰਨਲ ਵਿੱਚ ਪ੍ਰਕਾਸ਼ਿਤ 'ਡਿਊਰੇਬਲ ਰਿਡਿਊਸਿੰਗ ਕੰਸਪੀਰੇਸੀ ਬਿਲੀਫਸ ਟੂ ਡਾਇਲਾਗ ਵਿਦ ਏਆਈ' ਸਿਰਲੇਖ ਵਾਲੇ ਅਧਿਐਨ ਵਿੱਚ ਪਾਇਆ ਗਿਆ ਕਿ ਚੈਟਜੀਪੀਟੀ ਦੇ ਸੰਸਕਰਣ ਦੀ ਵਰਤੋਂ ਕਰਨ ਨਾਲ ਲੋਕਾਂ ਨੂੰ ਝੂਠੇ ਵਿਸ਼ਵਾਸਾਂ ਅਤੇ ਸਾਜ਼ਿਸ਼ ਦੇ ਸਿਧਾਂਤਾਂ ਨੂੰ ਪਨਾਹ ਦੇਣ ਤੋਂ ਰੋਕਿਆ ਜਾ ਸਕਦਾ ਹੈ।
ਅਧਿਐਨ ਦੀ ਅਗਵਾਈ ਮੁੱਖ ਲੇਖਕ ਥਾਮਸ ਕੋਸਟੇਲੋ, ਅਮਰੀਕਨ ਯੂਨੀਵਰਸਿਟੀ ਦੇ ਸਹਾਇਕ ਪ੍ਰੋਫੈਸਰ, ਡੇਵਿਡ ਰੈਂਡ, ਮੈਸੇਚਿਉਸੇਟਸ ਇੰਸਟੀਚਿਊਟ ਆਫ਼ ਟੈਕਨਾਲੋਜੀ (ਐਮਆਈਟੀ) ਦੇ ਸਲੋਆਨ ਸਕੂਲ ਆਫ਼ ਮੈਨੇਜਮੈਂਟ ਦੇ ਪ੍ਰੋਫੈਸਰ ਅਤੇ ਮਨੋਵਿਗਿਆਨ ਦੇ ਐਸੋਸੀਏਟ ਪ੍ਰੋਫੈਸਰ ਗੋਰਡਨ ਪੈਨੀਕੂਕ ਅਤੇ ਹਿਮਨ ਬ੍ਰਾਊਨ ਫੈਕਲਟੀ ਫੈਲੋ ਦੁਆਰਾ ਕੀਤੀ ਗਈ ਸੀ। ਕਾਰਨੇਲ ਯੂਨੀਵਰਸਿਟੀ ਵਿਖੇ ਕਲਾ ਅਤੇ ਵਿਗਿਆਨ ਦੇ ਕਾਲਜ ਦੁਆਰਾ ਕੀਤਾ ਗਿਆ ਸੀ।
AI ਮਨ ਵਿੱਚੋਂ ਗਲਤ ਜਾਣਕਾਰੀ ਨੂੰ ਕਰਦਾ ਹੈ ਦੂਰ
ਜਨਰੇਟਿਵ AI ਨੂੰ ਅਕਸਰ ਗਲਤ ਜਾਣਕਾਰੀ/ਜਾਅਲੀ ਖਬਰਾਂ ਫੈਲਾਉਣ ਲਈ ਦੋਸ਼ੀ ਠਹਿਰਾਇਆ ਜਾਂਦਾ ਹੈ। ਹਾਲਾਂਕਿ, ਅਧਿਐਨ ਨੇ ਪਾਇਆ ਕਿ ਉਲਟ ਵੀ ਸੱਚ ਹੋ ਸਕਦਾ ਹੈ। ਜਨਰੇਟਿਵ AI ਲੋਕਾਂ ਦੇ ਦਿਮਾਗਾਂ ਤੋਂ ਗਲਤ ਜਾਣਕਾਰੀ ਨੂੰ ਵੀ ਦੂਰ ਕਰ ਸਕਦਾ ਹੈ। ਲੋਕਤੰਤਰ ਲਈ ਵਧ ਰਹੇ ਖਤਰਿਆਂ ਦੇ ਵਿਚਕਾਰ, ਕੋਸਟੇਲੋ ਅਤੇ ਉਨ੍ਹਾਂ ਦੀ ਟੀਮ ਨੇ ਜਾਂਚ ਕੀਤੀ ਕਿ ਕੀ ਜਨਰੇਟਿਵ ਏਆਈ ਇੰਟਰਫੇਸ ਨਾਲ ਪਰਸਪਰ ਪ੍ਰਭਾਵ ਲੋਕਾਂ ਨੂੰ ਆਪਣੇ ਸਾਜ਼ਿਸ਼ਵਾਦੀ ਵਿਸ਼ਵਾਸਾਂ ਨੂੰ ਛੱਡਣ ਲਈ ਮਨਾ ਸਕਦਾ ਹੈ।
ਦਲੀਲਾਂ ਨਾਲ ਗੱਲਬਾਤ
ਅਧਿਐਨ ਦੇ ਸੰਖੇਪ ਵਿੱਚ ਕਿਹਾ ਗਿਆ ਹੈ, "ਮਨੁੱਖੀ ਭਾਗੀਦਾਰਾਂ ਨੇ ਇੱਕ ਸਾਜ਼ਿਸ਼ ਸਿਧਾਂਤ ਦਾ ਵਰਣਨ ਕੀਤਾ ਜਿਸਦਾ ਉਨ੍ਹਾਂ ਨੇ ਸਮਰਥਨ ਕੀਤਾ ਅਤੇ ਫਿਰ AI ਨੇ ਉਨ੍ਹਾਂ ਦੇ ਨਾਲ ਪ੍ਰੇਰਕ ਦਲੀਲਾਂ ਵਿੱਚ ਹਿੱਸਾ ਲਿਆ, ਸਬੂਤ ਦੇ ਨਾਲ ਉਨ੍ਹਾਂ ਦੇ ਵਿਸ਼ਵਾਸਾਂ ਦਾ ਖੰਡਨ ਕੀਤਾ। ਏ.ਆਈ. ਚੈਟਬੋਟ ਦੀ ਅਨੁਕੂਲਿਤ ਜਵਾਬੀ ਕਾਰਵਾਈਆਂ ਅਤੇ ਡੂੰਘਾਈ ਨਾਲ ਗੱਲਬਾਤ ਨੂੰ ਬਰਕਰਾਰ ਰੱਖਣ ਦੀ ਸਮਰੱਥਾ ਨੂੰ ਘਟਾ ਦਿੱਤਾ ਗਿਆ। ਮਹੀਨਿਆਂ ਤੋਂ ਸਾਜ਼ਿਸ਼ਾਂ ਵਿੱਚ ਉਨ੍ਹਾਂ ਦੇ ਵਿਸ਼ਵਾਸ, ਚੁਣੌਤੀਪੂਰਨ ਖੋਜ ਜੋ ਦਰਸਾਉਂਦੀ ਹੈ ਕਿ ਕਿਵੇਂ AI ਦੀ ਵਰਤੋਂ ਟਕਰਾਅ ਨੂੰ ਘਟਾਉਣ ਅਤੇ ਸਮਾਜ ਦੀ ਸੇਵਾ ਕਰਨ ਲਈ ਕੀਤੀ ਜਾ ਸਕਦੀ ਹੈ।"
ਕੋਸਟੇਲੋ ਅਤੇ ਉਨ੍ਹਾਂ ਦੀ ਟੀਮ ਇਹ ਜਾਣਨਾ ਚਾਹੁੰਦੀ ਸੀ ਕਿ ਕੀ GPT-4 ਟਰਬੋ ਵਰਗੇ ਵੱਡੇ ਭਾਸ਼ਾ ਮਾਡਲ (LLM), ChatGPT ਦਾ ਇੱਕ ਸੰਸਕਰਣ ਜੋ ਕਿ ਸਕਿੰਟਾਂ ਵਿੱਚ ਵੱਡੀ ਮਾਤਰਾ ਵਿੱਚ ਜਾਣਕਾਰੀ ਨੂੰ ਪ੍ਰੋਸੈਸ ਕਰਦਾ ਹੈ, ਸਾਜ਼ਿਸ਼ ਦੇ ਸਿਧਾਂਤਾਂ ਦਾ ਖੰਡਨ ਕਰ ਸਕਦਾ ਹੈ।
LLM ਇੱਕ ਕਿਸਮ ਦਾ ਬੁਨਿਆਦ ਮਾਡਲ ਹੈ ਜੋ ਵੱਡੀ ਮਾਤਰਾ ਵਿੱਚ ਡੇਟਾ 'ਤੇ ਸਿਖਲਾਈ ਪ੍ਰਾਪਤ ਹੁੰਦਾ ਹੈ, ਜਿਸ ਨਾਲ ਉਨ੍ਹਾਂ ਨੂੰ ਕਈ ਤਰ੍ਹਾਂ ਦੇ ਕਾਰਜ ਕਰਨ ਲਈ ਕੁਦਰਤੀ ਭਾਸ਼ਾ ਅਤੇ ਹੋਰ ਕਿਸਮਾਂ ਦੀ ਸਮੱਗਰੀ ਨੂੰ ਸਮਝਣ ਅਤੇ ਤਿਆਰ ਕਰਨ ਦੇ ਯੋਗ ਬਣਾਇਆ ਜਾਂਦਾ ਹੈ। LLMs ਇੱਕ ਘਰੇਲੂ ਨਾਮ ਬਣ ਗਏ ਹਨ ਕਿਉਂਕਿ ਉਹ ਜਨਹਿੱਤ AI ਨੂੰ ਸਭ ਤੋਂ ਅੱਗੇ ਲਿਆਉਣ ਵਿੱਚ ਆਪਣੀ ਭੂਮਿਕਾ ਦੇ ਨਾਲ-ਨਾਲ ਉਹ ਬਿੰਦੂ ਹਨ ਜਿੱਥੇ ਸੰਸਥਾਵਾਂ ਬਹੁਤ ਸਾਰੇ ਕਾਰੋਬਾਰੀ ਫੰਕਸ਼ਨਾਂ ਅਤੇ ਵਰਤੋਂ ਦੇ ਮਾਮਲਿਆਂ ਵਿੱਚ AI ਨੂੰ ਅਪਣਾਉਣ 'ਤੇ ਧਿਆਨ ਕੇਂਦਰਤ ਕਰ ਰਹੀਆਂ ਹਨ।
LLMs ਕੁਦਰਤੀ ਭਾਸ਼ਾ ਪ੍ਰੋਸੈਸਿੰਗ (NLP) ਸਮਰੱਥਾਵਾਂ ਅਤੇ AI ਵਿੱਚ ਇੱਕ ਮਹੱਤਵਪੂਰਨ ਸਫਲਤਾ ਨੂੰ ਦਰਸਾਉਂਦੇ ਹਨ, ਅਤੇ ਓਪਨ AI ਚੈਟ ਲੋਕਾਂ ਲਈ GPT-3 ਅਤੇ GPT-4 ਵਰਗੇ ਇੰਟਰਫੇਸਾਂ ਦੁਆਰਾ ਪਹੁੰਚਯੋਗ ਹਨ, ਜੋ ਕਿ Microsoft ਦੁਆਰਾ ਸਮਰਥਿਤ ਹਨ।
ਸਾਦੇ ਸ਼ਬਦਾਂ ਵਿੱਚ, LLM ਨੂੰ ਹੋਰ ਕਿਸਮਾਂ ਦੀ ਸਮੱਗਰੀ ਤੋਂ ਇਲਾਵਾ, ਉਨ੍ਹਾਂ ਨੂੰ ਸਿਖਲਾਈ ਦੇਣ ਲਈ ਵਰਤੇ ਜਾਂਦੇ ਡੇਟਾ ਦੀ ਵਿਸ਼ਾਲ ਮਾਤਰਾ ਦੇ ਅਧਾਰ ਤੇ, ਮਨੁੱਖਾਂ ਵਾਂਗ ਟੈਕਸਟ ਨੂੰ ਸਮਝਣ ਅਤੇ ਬਣਾਉਣ ਲਈ ਤਿਆਰ ਕੀਤਾ ਗਿਆ ਹੈ। ਉਨ੍ਹਾਂ ਕੋਲ ਸੰਦਰਭ ਤੋਂ ਅਨੁਮਾਨ ਲਗਾਉਣ, ਇਕਸਾਰ ਅਤੇ ਪ੍ਰਸੰਗਿਕ ਤੌਰ 'ਤੇ ਸੰਬੰਧਿਤ ਜਵਾਬਾਂ ਨੂੰ ਤਿਆਰ ਕਰਨ, ਅੰਗਰੇਜ਼ੀ ਤੋਂ ਇਲਾਵਾ ਹੋਰ ਭਾਸ਼ਾਵਾਂ ਵਿੱਚ ਅਨੁਵਾਦ ਕਰਨ, ਪਾਠ ਨੂੰ ਸੰਖੇਪ ਕਰਨ, ਪ੍ਰਸ਼ਨਾਂ ਦੇ ਉੱਤਰ ਦੇਣ ਅਤੇ ਰਚਨਾਤਮਕ ਲਿਖਤ ਜਾਂ ਕੋਡ ਬਣਾਉਣ ਦੇ ਕੰਮਾਂ ਵਿੱਚ ਸਹਾਇਤਾ ਕਰਨ ਦੀ ਸਮਰੱਥਾ ਹੈ।
ਕੋਸਟੇਲੋ ਅਤੇ ਉਸਦੇ ਸਹਿਯੋਗੀ ਇਹ ਜਾਣਨਾ ਚਾਹੁੰਦੇ ਸਨ ਕਿ ਕੀ ਜੀਪੀਟੀ-4 ਟਰਬੋ ਵਰਗੇ ਐਲਐਲਐਮ, ਜੋ ਕਿ ਸਕਿੰਟਾਂ ਵਿੱਚ ਵੱਡੀ ਮਾਤਰਾ ਵਿੱਚ ਜਾਣਕਾਰੀ ਨੂੰ ਪ੍ਰੋਸੈਸ ਕਰਦੇ ਹਨ, ਸਾਜ਼ਿਸ਼ ਦੇ ਸਿਧਾਂਤਾਂ ਨੂੰ ਖਤਮ ਕਰ ਸਕਦੇ ਹਨ, ਵਿਗਿਆਨ ਵਿੱਚ ਅਧਿਐਨ ਦਾ ਵਰਣਨ ਕਰਦੇ ਹੋਏ।
2000 ਵਾਲੰਟੀਅਰਾਂ ਨੇ ਭਾਗ ਲਿਆ
ਅਧਿਐਨ ਲਈ ਖੋਜਕਰਤਾਵਾਂ ਨੇ 2,000 ਤੋਂ ਵੱਧ ਵਲੰਟੀਅਰਾਂ ਦੀ ਭਰਤੀ ਕੀਤੀ ਜੋ ਇੱਕ ਜਾਂ ਕਿਸੇ ਹੋਰ ਸਾਜ਼ਿਸ਼ ਸਿਧਾਂਤ ਵਿੱਚ ਵਿਸ਼ਵਾਸ ਕਰਦੇ ਸਨ। ਫਿਰ ਉਨ੍ਹਾਂ ਨੂੰ GPT-4 ਟਰਬੋ ਵਿੱਚ ਆਪਣਾ ਵਿਸ਼ਵਾਸ ਟਾਈਪ ਕਰਨ ਲਈ ਕਿਹਾ ਗਿਆ। ਹਰੇਕ ਵਿਅਕਤੀ ਨੇ AI ਨਾਲ ਸਾਂਝਾ ਕੀਤਾ ਕਿ ਉਹ ਕੀ ਵਿਸ਼ਵਾਸ ਕਰਦਾ ਹੈ, ਉਸ ਨੇ ਇਸ ਦਾ ਸਮਰਥਨ ਕਰਨ ਲਈ ਕਿਹੜੇ ਸਬੂਤ ਮਹਿਸੂਸ ਕੀਤੇ ਹਨ, ਅਤੇ ਇਹ ਦਰਜਾ ਦਿੱਤਾ ਹੈ ਕਿ ਉਹ ਸਿਧਾਂਤ ਦੇ ਸੱਚ ਹੋਣ ਬਾਰੇ ਕਿੰਨਾ ਭਰੋਸੇਮੰਦ ਸੀ।
AI ਦੇ ਜਵਾਬ ਨੇ ਉਨ੍ਹਾਂ ਦੇ ਚੁਣੇ ਹੋਏ ਸਾਜ਼ਿਸ਼ ਸਿਧਾਂਤ ਵਿੱਚ ਪ੍ਰਤੀਭਾਗੀਆਂ ਦੇ ਵਿਸ਼ਵਾਸ ਨੂੰ ਔਸਤਨ 20 ਪ੍ਰਤੀਸ਼ਤ ਤੱਕ ਘਟਾ ਦਿੱਤਾ। ਇਹ ਪ੍ਰਭਾਵ ਘੱਟੋ-ਘੱਟ ਦੋ ਮਹੀਨਿਆਂ ਤੱਕ ਘਟੇ ਬਿਨਾਂ ਜਾਰੀ ਰਿਹਾ। ਜਦੋਂ ਇੱਕ ਪੇਸ਼ੇਵਰ ਤੱਥ-ਜਾਂਚਕਰਤਾ ਨੇ AI ਦੁਆਰਾ ਕੀਤੇ ਗਏ 128 ਦਾਅਵਿਆਂ ਦੇ ਨਮੂਨੇ ਦਾ ਮੁਲਾਂਕਣ ਕੀਤਾ, ਤਾਂ 99.2 ਪ੍ਰਤੀਸ਼ਤ ਸੱਚ ਸਨ, 0.8 ਪ੍ਰਤੀਸ਼ਤ ਗੁੰਮਰਾਹਕੁੰਨ ਸਨ, ਅਤੇ ਕੋਈ ਵੀ ਗਲਤ ਨਹੀਂ ਸੀ।
ਜਿਸ ਚੀਜ਼ ਨੇ ਵਲੰਟੀਅਰਾਂ ਨੂੰ ਯਕੀਨ ਦਿਵਾਉਣ ਵਿੱਚ ਮਦਦ ਕੀਤੀ ਉਹ ਸੀ AI ਨੇ ਆਪਣੇ ਵਿਚਾਰ ਪੇਸ਼ ਕੀਤੇ। ਇਹ ਇੱਕ ਮਨੁੱਖ ਦੁਆਰਾ ਇੱਕ ਸਾਥੀ ਮਨੁੱਖ ਨੂੰ ਇੱਕ ਸਾਜ਼ਿਸ਼ ਸਿਧਾਂਤ ਬਾਰੇ ਯਕੀਨ ਦਿਵਾਉਣ ਦੀ ਕੋਸ਼ਿਸ਼ ਦੇ ਉਲਟ ਹੈ ਜੋ ਅਕਸਰ ਗਰਮ ਅਤੇ ਬਹਿਸਬਾਜ਼ੀ ਹੋ ਸਕਦਾ ਹੈ।
ਅਧਿਐਨ ਨੇ ਸਿੱਟਾ ਕੱਢਿਆ ਕਿ ਬਹੁਤ ਸਾਰੇ ਲੋਕ ਜੋ ਤੱਥ-ਰੋਧਕ ਸਾਜ਼ਿਸ਼ਵਾਦੀ ਵਿਸ਼ਵਾਸਾਂ ਵਿੱਚ ਮਜ਼ਬੂਤੀ ਨਾਲ ਵਿਸ਼ਵਾਸ ਕਰਦੇ ਹਨ, ਮਜਬੂਰ ਕਰਨ ਵਾਲੇ ਸਬੂਤ ਦੇ ਨਾਲ ਪੇਸ਼ ਕੀਤੇ ਜਾਣ 'ਤੇ ਉਨ੍ਹਾਂ ਦੇ ਮਨ ਬਦਲਣ ਦੀ ਸੰਭਾਵਨਾ ਹੁੰਦੀ ਹੈ। ਖੋਜਕਰਤਾਵਾਂ ਨੇ ਜ਼ੋਰ ਦੇ ਕੇ ਕਿਹਾ, "ਵਿਹਾਰਕ ਰੂਪ ਵਿੱਚ, LLM ਦੀ ਪ੍ਰੇਰਨਾ ਸ਼ਕਤੀ ਦਾ ਪ੍ਰਦਰਸ਼ਨ ਕਰਕੇ, ਸਾਡੀ ਖੋਜ ਜਨਰੇਟਿਵ ਏਆਈ ਦੇ ਸੰਭਾਵੀ ਸਕਾਰਾਤਮਕ ਪ੍ਰਭਾਵਾਂ ਨੂੰ ਉਜਾਗਰ ਕਰਦੀ ਹੈ ਜਦੋਂ ਜ਼ਿੰਮੇਵਾਰੀ ਨਾਲ ਤੈਨਾਤ ਕੀਤੀ ਜਾਂਦੀ ਹੈ ਅਤੇ ਇਸ ਤਕਨਾਲੋਜੀ ਦੀ ਗੈਰ-ਜ਼ਿੰਮੇਵਾਰਾਨਾ ਵਰਤੋਂ ਦੇ ਮੌਕਿਆਂ ਨੂੰ ਘਟਾਉਂਦੀ ਹੈ।"