ਸਿਡਨੀ: ਸੋਸ਼ਲ ਮੀਡੀਆ ਪਲੇਟਫ਼ਾਰਮ ਦਿਨ ਪ੍ਰਤੀ ਦਿਨ ਟਿੱਪਣੀਆਂ ਦੇ ਮਾਮਲੇ ਵਿੱਚ ਔਰਤਾਂ ਦੇ ਲਈ ਅਪਮਾਨਜਨਕ ਹੁੰਦਾ ਜਾ ਰਿਹਾ ਹੈ। ਇਸ ਮੁੱਦੇ ਨੂੰ ਹੱਲ ਕਰਨ ਲਈ, ਕਵੀਨਜ਼ਲੈਂਡ ਯੂਨੀਵਰਸਿਟੀ ਆਫ਼ ਟੈਕਨਾਲੋਜੀ (ਕਿਊ.ਯੂ.ਟੀ.) ਦੇ ਖੋਜਕਰਤਾਵਾਂ ਦੀ ਇੱਕ ਟੀਮ ਨੇ ਟਵਿੱਟਰ 'ਤੇ ਔਰਤਾਂ ਦੀਆਂ ਪੋਸਟਾਂ ਨੂੰ ਨਿਸ਼ਾਨਾ ਬਣਾ ਕੇ ਆਨਲਾਈਨ ਦੁਰਵਿਵਹਾਰ ਦਾ ਪਤਾ ਲਗਾਉਣ ਦੇ ਲਈ ਇੱਕ ਸੂਝਵਾਨ ਤੇ ਸਹੀ ਐਲਗੋਰਿਦਮ ਤਿਆਰ ਕੀਤਾ ਹੈ।
ਕਿਊ.ਯੂ.ਟੀ ਦੇ ਰਿਚੀ ਨਾਇਕ, ਨਿਕੋਲਸ ਸੁਜ਼ੋਰ ਅਤੇ (ਕਿਊ.ਯੂ.ਟੀ.) ਐਮਡੀ ਅਬੂਲ ਬਸ਼ਰ ਨੇ ਰੈਗੁਲਾਈਜਿੰਗ ਐਲਐਸਟੀਐਮ ਕਲਾਸੀਫ਼ਾਇਰ ਬਾਏ ਟ੍ਰਾਂਸਫ਼ਰ ਲਰਨਿੰਗ ਫ਼ਾਰ ਡੀਟੈਕਟਿੰਗ ਟਰੀਟ ਵਿੱਡ ਸਮਾਲ ਟੈਨਿੰਗ ਸੈੱਟ ਦੇ ਸਿਰਲੇਖ 'ਤੇ ਇੱਕ ਪੱਤਰ ਲਿਖਿਆ ਹੈ ਜੋ ਸਪਿੰਗਰ ਦੁਆਰਾ ਪ੍ਰਕਾਸ਼ਿਤ ਕੀਤਾ ਗਿਆ ਹੈ।
ਇਹ ਕਿਯੂਟੀ ਦੇ ਫੈਕਲਟੀਜ਼, ਸਾਇੰਸ, ਇੰਜੀਨੀਅਰਿੰਗ ਅਤੇ ਕਾਨੂੰਨ, ਅਤੇ ਡਿਜੀਟਲ ਮੀਡੀਆ ਰਿਸਰਚ ਸੈਂਟਰ ਦੇ ਵਿਚਕਾਰ ਇੱਕ ਸਹਿਯੋਗ ਹੈ। ਜੋ ਕਿ ਇੱਕ ਮਿਲੀਅਨ ਟਵੀਟਸ ਦੇ ਡੇਟਾਸੇਟ ਦੀ ਮਾਈਨਿੰਗ ਕਰਦਾ ਹੈ, ਫਿਰ ਉਨ੍ਹਾਂ ਦੀ ਜਾਂਚ ਕਰਦਾ ਹੈ ਅਤੇ ਉਨ੍ਹਾਂ ਨੂੰ ਸੋਧਦਾ ਹੈ, ਜਿਸ ਵਿੱਚ ਅਪਮਾਨਜਨਕ ਸ਼ਬਦ - ਹੌਰ, ਸਲਟ ਅਤੇ ਬਲਾਤਕਾਰ ਆਦਿ ਹੁੰਦੇ ਹਨ।
ਨਾਇਕ ਨੇ ਕਿਹਾ ਕਿ ਤੁਰੰਤ ਪ੍ਰਭਾਵ ਨਾਲ ਉਪਭੋਗਤਾ ਦੁਆਰਾ ਕੱਢੀ ਗਈ ਗਾਲ ਦੀ ਰਿਪੋਰਟ ਕਰਨਾ ਇਹ ਉਨ੍ਹਾਂ ਦੀ ਜ਼ਿੰਮੇਵਾਰੀ ਬਣਦੀ ਹੈ। ਅਸੀਂ ਆਸ ਕਰਦੇ ਹਾਂ ਕਿ ਔਰਤਾਂ ਅਤੇ ਹੋਰ ਉਪਭੋਗਤਾ ਸਮੂਹਾਂ ਦੀ ਆਨਲਾਈਨ ਸੁਰੱਖਿਆ ਲਈ ਆਪਣੇ ਆਪ ਹੀ ਅਜਿਹੀ ਸਮੱਸਿਆ ਦੀ ਪਛਾਣ ਕਰਨ ਅਤੇ ਰਿਪੋਰਟ ਕਰਨ ਲਈ ਸੋਸ਼ਲ ਮੀਡੀਆ ਪਲੇਟਫ਼ਾਰਮਾਂ ਦੁਆਰਾ ਸਾਡੇ ਮਸ਼ੀਨ-ਲਰਨਿੰਗ ਹੱਲ ਨੂੰ ਵਰਤਿਆ ਜਾ ਸਕਦਾ ਹੈ।
ਟੀਮ ਨੇ ਟ੍ਰਾਂਸਫ਼ਰ ਲਰਨਿੰਗ ਦੇ ਨਾਲ ਲੌਂਗ ਸ਼ਾਰਟ-ਟਰਮ ਮੈਮੋਰੀ (ਐਲ.ਐਸ.ਟੀ.ਐਮ.) ਨਾਮ ਦੀ ਇੱਕ ਡੂੰਘੇ ਸਿਖਲਾਈ ਐਲਗੋਰਿਦਮ ਨੂੰ ਲਾਗੂ ਕੀਤਾ, ਜਿਸ ਤੋਂ ਪਤਾ ਚੱਲਦਾ ਹੈ ਕਿ ਮਸ਼ੀਨ ਪਰਿਭਾਸ਼ਾ ਦੀ ਆਪਣੀ ਪਿਛਲੀ ਸਮਝ ਨੂੰ ਵੇਖ ਸਕਦੀ ਹੈ ਅਤੇ ਮਾਡਲ ਨੂੰ ਬਦਲ ਸਕਦੀ ਹੈ, ਕਿਉਂਕਿ ਇਹ ਇਸਦੇ ਪ੍ਰਸੰਗ 'ਤੇ ਨਿਰਭਰ ਕਰਦੀ ਹੈ ਅਤੇ ਸਮੇਂ ਦੇ ਨਾਲ ਅਰਥਵਾਦੀ ਸਮਝ ਨੂੰ ਵਿਕਸਿਤ ਕਰਦਾ ਹੈ।
ਨਾਇਕ ਨੇ ਇਹ ਵੀ ਕਿਹਾ ਕਿ ਜੇ ਅਸੀਂ ਇਸ ਰਸਾਲੇ ਨੂੰ ਟੈਕ ਬੈਕ ਟੂ ਦੀ ਕਿਚਨ ਨੂੰ ਇੱਕ ਉਦਾਹਰਣ ਵਜੋਂ ਲੈ ਲਈਏ ਤਾਂ ਢਾਂਚਾਗਤ ਅਸਮਾਨਤਾ ਦੇ ਸੰਦਰਭ ਤੋਂ ਵਾਂਝੀ, ਇੱਕ ਮਸ਼ੀਨ ਦੀ ਸ਼ਾਬਦਿਕ ਵਿਆਖਿਆ ਤਾਂ ਗਲ਼ਤ ਅਰਥ ਨਿੱਕਲ ਸਕਦਾ ਹੈ।
ਪਰ ਇਸ ਗੱਲ ਦੀ ਸਮਝ ਨਾਲ ਕਿ ਅਪਮਾਨਜਨਕ ਜਾਂ ਭੱਦੀ ਭਾਸ਼ਾ ਦਾ ਗਠਨ ਕੀ ਹੁੰਦਾ ਹੈ, ਇਹ ਅਕਸਰ ਇੱਕ ਗਲ਼ਤ ਟਵੀਟ ਦੇ ਤੌਰ ਉੱਤੇ ਦੇਖਿਆ ਜਾਂਦਾ ਹੈ ਜਿਵੇਂ ‘STFU BITCH! DON'T YOU DARE INSULT KEEMSTAR OR I'LL KILL YOU. ਇੱਕ ਸੰਦਰਭ ਤੋਂ ਬਿਨਾਂ, ਗਲਤਫ਼ਹਿਮੀ ਤੇ ਅਪਮਾਨਜਨਕ ਖ਼ਤਰੇ ਤੋਂ, ਅਜਿਹਾ ਕਰਨਾ ਇੱਕ ਮਸ਼ੀਨ ਲਈ ਅਸੰਭਵ ਹੈ।
ਸ਼ਬਦ ਦੀ ਵੰਡ ਜਾਂ ਘਟਨਾ ਦੇ ਪੈਟਰਨ ਉੱਤੇ ਅਧਾਰਿਤ ਹੋਰ ਤਰੀਕੇ ਅਪਮਾਨਜਨਕ ਜਾਂ ਗਲਤ ਸ਼ਬਦਾਵਲੀ ਦੀ ਪਛਾਣ ਕਰਦੇ ਹਨ, ਪਰ ਜਰੂਰੀ ਨਹੀਂ ਕਿ ਕਿਸੇ ਸ਼ਬਦ ਦੀ ਮੌਜੂਦਗੀ ਇਰਾਦੇ ਨਾਲ ਸਬੰਧਿਤ ਹੋਵੇ।
ਨਾਇਕ ਨੇ ਇਹ ਵੀ ਕਿਹਾ ਕਿ ਇੱਕ ਵਾਰ ਜਦੋਂ ਅਸੀਂ 1ਐਮ ਟਵੀਟ ਨੂੰ 5000 ਤੱਕ ਸੁਧਾਰੀ ਕਰ ਚੁੱਕੇ ਸੀ, ਤਾਂ ਉਨ੍ਹਾਂ ਟਵੀਟਾਂ ਨੂੰ ਗਲ਼ਤ ਜਾਂ ਬੇਯਕੀਨੀ ਪ੍ਰਸੰਗ ਤੇ ਉਦੇਸ਼ ਦੇ ਤੌਰ `ਤੇ ਸ਼੍ਰੇਣੀਬੱਧ ਨਹੀਂ ਕੀਤਾ ਗਿਆ ਸੀ ਤੇ ਇਹ ਮਸ਼ੀਨ ਸਿਖਲਾਈ ਦੇ ਵਰਗੀਕਰਤਾਵਾਂ ਲਈ ਇੰਪੁੱਟ ਸਨ, ਜਿਨ੍ਹਾਂ ਨੇ ਇਨ੍ਹਾਂ ਵਰਗੀਕਰਣਾਂ ਦੇ ਮਾਡਲ ਬਣਾਉਣੇ ਸ਼ੁਰੂ ਕਰਨ ਲਈ ਇਨ੍ਹਾਂ ਲੇਬਲ ਵਾਲੇ ਨਮੂਨਿਆਂ ਦੀ ਵਰਤੋਂ ਕਰਦੇ ਸੀ।
ਇਹ ਮਾਡਲ ਨੂੰ ਭਵਿੱਖ ਵਿੱਚ ਹੋਰ ਸੰਦਰਭਾਂ ਵਿੱਚ ਵੀ ਵਰਤੀ ਜਾ ਸਕਦੀ ਹੈ, ਜਿਵੇਂ ਕਿ ਨਸਲਵਾਦ, ਹੋਮੋਫੋਬੀਆ, ਜਾਂ ਅਪਾਹਜ ਲੋਕਾਂ ਪ੍ਰਤੀ ਬਦਸਲੂਕੀ ਦੀ ਪਛਾਣ ਕਰਨਾ ਹੈ।