AI ਦੀਆਂ ਗਲਤੀਆਂ ਨੂੰ ਖਤਮ ਕਰਨਾ ਅਸੰਭਵ ਹੋ ਸਕਦਾ ਹੈ – ਸਿਹਤ ਸੰਭਾਲ ਵਿੱਚ ਇਸਦੀ ਵਰਤੋਂ ਲਈ ਇਸਦਾ ਕੀ ਅਰਥ ਹੈ

AI ਦੀਆਂ ਗਲਤੀਆਂ ਨੂੰ ਖਤਮ ਕਰਨਾ ਅਸੰਭਵ ਹੋ ਸਕਦਾ ਹੈ – ਸਿਹਤ ਸੰਭਾਲ ਵਿੱਚ ਇਸਦੀ ਵਰਤੋਂ ਲਈ ਇਸਦਾ ਕੀ ਅਰਥ ਹੈ

ਆਮ ਸਮਝ ਅਤੇ ਸਾਵਧਾਨੀ ਦੇ ਸਿਧਾਂਤ ਸੁਝਾਅ ਦਿੰਦੇ ਹਨ ਕਿ AI ਲਈ ਮਨੁੱਖੀ ਨਿਗਰਾਨੀ ਤੋਂ ਬਿਨਾਂ ਦਵਾਈਆਂ ਲਿਖਣਾ ਬਹੁਤ ਜਲਦੀ ਹੈ

ਪਿਛਲੇ ਦਹਾਕੇ ਵਿੱਚ, AI ਨੇ ਸਫਲਤਾ ਹਾਸਲ ਕੀਤੀ ਹੈ ਬੇਕਾਬੂ ਉਤਸ਼ਾਹ ਅਤੇ ਦਲੇਰ ਦਾਅਵੇ – ਭਾਵੇਂ ਉਪਭੋਗਤਾ ਅਕਸਰ ਗਲਤੀਆਂ ਦਾ ਅਨੁਭਵ ਕਰੋ ਉਹ AI ਬਣਾਉਂਦਾ ਹੈ। ਇੱਕ AI-ਸੰਚਾਲਿਤ ਡਿਜੀਟਲ ਅਸਿਸਟੈਂਟ ਸ਼ਰਮਨਾਕ ਤੌਰ ‘ਤੇ ਕਿਸੇ ਦੇ ਭਾਸ਼ਣ ਨੂੰ ਗਲਤ ਸਮਝ ਸਕਦਾ ਹੈ, ਇੱਕ ਚੈਟਬੋਟ ਤੱਥਾਂ ਨੂੰ ਉਲਝਾ ਸਕਦਾ ਹੈ, ਜਾਂ, ਜਿਵੇਂ ਕਿ ਮੈਂ ਅਨੁਭਵ ਕੀਤਾ ਹੈ, ਇੱਕ AI-ਅਧਾਰਿਤ ਨੈਵੀਗੇਸ਼ਨ ਟੂਲ ਇੱਕ ਮੱਕੀ ਦੇ ਖੇਤ ਦੁਆਰਾ ਡਰਾਈਵਰਾਂ ਨੂੰ ਮਾਰਗਦਰਸ਼ਨ ਵੀ ਕਰ ਸਕਦਾ ਹੈ – ਸਭ ਕੁਝ ਗਲਤੀਆਂ ਨੂੰ ਰਜਿਸਟਰ ਕੀਤੇ ਬਿਨਾਂ।

ਲੋਕ ਇਹਨਾਂ ਗਲਤੀਆਂ ਨੂੰ ਬਰਦਾਸ਼ਤ ਕਰਦੇ ਹਨ ਕਿਉਂਕਿ ਤਕਨਾਲੋਜੀ ਕੁਝ ਕੰਮਾਂ ਨੂੰ ਵਧੇਰੇ ਕੁਸ਼ਲ ਬਣਾਉਂਦੀ ਹੈ। ਹਾਲਾਂਕਿ, ਸਮਰਥਕ ਵੱਧ ਤੋਂ ਵੱਧ AI ਦੀ ਵਰਤੋਂ ਦੀ ਵਕਾਲਤ ਕਰ ਰਹੇ ਹਨ – ਕਈ ਵਾਰ ਸੀਮਤ ਮਨੁੱਖੀ ਨਿਗਰਾਨੀ ਦੇ ਨਾਲ – ਉਹਨਾਂ ਖੇਤਰਾਂ ਵਿੱਚ ਜਿੱਥੇ ਗਲਤੀਆਂ ਦੀ ਉੱਚ ਕੀਮਤ ਹੁੰਦੀ ਹੈ, ਜਿਵੇਂ ਕਿ ਸਿਹਤ ਦੇਖਭਾਲ। ਉਦਾਹਰਨ ਲਈ, ਏ ਬਿੱਲ 2025 ਦੇ ਸ਼ੁਰੂ ਵਿੱਚ ਅਮਰੀਕੀ ਪ੍ਰਤੀਨਿਧੀ ਸਭਾ ਵਿੱਚ ਪੇਸ਼ ਕੀਤਾ ਗਿਆ ਸੀ ਪਸੰਦ ਕਰਨਗੇ AI ਪ੍ਰਣਾਲੀਆਂ ਨੂੰ ਖੁਦਮੁਖਤਿਆਰੀ ਨਾਲ ਦਵਾਈਆਂ ਲਿਖਣ ਦੀ ਆਗਿਆ ਦਿਓ. ਸਿਹਤ ਖੋਜਕਰਤਾਵਾਂ ਅਤੇ ਕਾਨੂੰਨ ਨਿਰਮਾਤਾਵਾਂ ਤੋਂ ਬਹਿਸ ਕੀਤੀ ਹੈ ਕੀ ਅਜਿਹਾ ਫ਼ੈਸਲਾ ਕਰਨਾ ਵਿਹਾਰਕ ਜਾਂ ਉਚਿਤ ਹੋਵੇਗਾ?

ਜੇਕਰ ਇਹ ਜਾਂ ਇਸ ਤਰ੍ਹਾਂ ਦਾ ਕੋਈ ਕਾਨੂੰਨ ਪਾਸ ਹੋ ਜਾਂਦਾ ਹੈ ਤਾਂ ਅਜਿਹਾ ਨਿਸ਼ਚਾ ਅਸਲ ਵਿੱਚ ਕਿਵੇਂ ਕੰਮ ਕਰੇਗਾ, ਇਹ ਦੇਖਣਾ ਬਾਕੀ ਹੈ। ਪਰ ਇਹ ਸਵਾਲ ਉਠਾਉਂਦਾ ਹੈ ਕਿ ਏਆਈ ਡਿਵੈਲਪਰ ਕਿੰਨੀਆਂ ਗਲਤੀਆਂ ਆਪਣੇ ਟੂਲਸ ਨੂੰ ਕਰਨ ਦੀ ਇਜਾਜ਼ਤ ਦੇ ਸਕਦੇ ਹਨ ਅਤੇ ਨਤੀਜੇ ਕੀ ਹੋਣਗੇ ਜੇਕਰ ਉਨ੍ਹਾਂ ਟੂਲਸ ਦੇ ਨਕਾਰਾਤਮਕ ਨਤੀਜੇ ਹੋਣਗੇ – ਇੱਥੋਂ ਤੱਕ ਕਿ ਮਰੀਜ਼ ਦੀ ਮੌਤ ਵੀ.

ਦੇ ਤੌਰ ‘ਤੇ ਏ ਗੁੰਝਲਦਾਰ ਪ੍ਰਣਾਲੀਆਂ ਦਾ ਅਧਿਐਨ ਕਰਨ ਵਾਲੇ ਖੋਜਕਰਤਾਮੈਂ ਜਾਂਚ ਕਰਦਾ ਹਾਂ ਇੱਕ ਸਿਸਟਮ ਦੇ ਵੱਖ-ਵੱਖ ਹਿੱਸੇ ਕਿਵੇਂ ਪਰਸਪਰ ਕ੍ਰਿਆ ਕਰਦੇ ਹਨ ਅਚਾਨਕ ਨਤੀਜੇ ਪੈਦਾ ਕਰਨ ਲਈ. ਮੇਰੇ ਕੰਮ ਦਾ ਹਿੱਸਾ ਵਿਗਿਆਨ ਦੀਆਂ ਸੀਮਾਵਾਂ ਦੀ ਪੜਚੋਲ ਕਰਨ ‘ਤੇ ਕੇਂਦ੍ਰਿਤ ਹੈ – ਅਤੇ, ਖਾਸ ਤੌਰ ‘ਤੇ, AI ਦੀਆਂ।

ਪਿਛਲੇ 25 ਸਾਲਾਂ ਵਿੱਚ ਮੈਂ ਕਈ ਪ੍ਰੋਜੈਕਟਾਂ ‘ਤੇ ਕੰਮ ਕੀਤਾ ਹੈ ਟ੍ਰੈਫਿਕ ਲਾਈਟ ਤਾਲਮੇਲ, ਨੌਕਰਸ਼ਾਹੀ ਸੁਧਾਰ ਅਤੇ ਟੈਕਸ ਚੋਰੀ ਦਾ ਪਤਾ ਲਗਾਉਣਾ. ਭਾਵੇਂ ਇਹ ਪ੍ਰਣਾਲੀਆਂ ਬਹੁਤ ਪ੍ਰਭਾਵਸ਼ਾਲੀ ਹੋ ਸਕਦੀਆਂ ਹਨ, ਇਹ ਕਦੇ ਵੀ ਸੰਪੂਰਨ ਨਹੀਂ ਹੁੰਦੀਆਂ ਹਨ।

ਖਾਸ ਤੌਰ ‘ਤੇ AI ਲਈ, ਗਲਤੀਆਂ ਲਾਜ਼ਮੀ ਹੋ ਸਕਦੀਆਂ ਹਨ ਸਿਸਟਮ ਕਿਵੇਂ ਕੰਮ ਕਰਦਾ ਹੈ ਦਾ ਨਤੀਜਾ. ਮੇਰੀ ਲੈਬ ਤੋਂ ਖੋਜ ਦਰਸਾਉਂਦੀ ਹੈ ਕਿ ਏਆਈ ਮਾਡਲਾਂ ਨੂੰ ਸਿਖਲਾਈ ਦੇਣ ਲਈ ਡੇਟਾ ਦੀਆਂ ਵਿਸ਼ੇਸ਼ ਵਿਸ਼ੇਸ਼ਤਾਵਾਂ ਦੀ ਵਰਤੋਂ ਕੀਤੀ ਜਾਂਦੀ ਹੈ। ਇੱਕ ਭੂਮਿਕਾ ਨਿਭਾਓ. ਇਹ ਬਦਲਣ ਦੀ ਸੰਭਾਵਨਾ ਨਹੀਂ ਹੈ, ਭਾਵੇਂ ਖੋਜਕਰਤਾ AI ਮਾਡਲਾਂ ਨੂੰ ਬਿਹਤਰ ਬਣਾਉਣ ਲਈ ਕਿੰਨਾ ਸਮਾਂ, ਮਿਹਨਤ ਅਤੇ ਫੰਡਿੰਗ ਕਰਨ।

ਕੋਈ ਵੀ – ਅਤੇ ਕੁਝ ਵੀ ਨਹੀਂ, ਏਆਈ ਵੀ ਨਹੀਂ – ਸੰਪੂਰਨ ਨਹੀਂ ਹੈ

ਜਿਵੇਂ ਕਿ ਐਲਨ ਟਿਊਰਿੰਗ, ਜਿਸ ਨੂੰ ਕੰਪਿਊਟਰ ਵਿਗਿਆਨ ਦਾ ਪਿਤਾ ਮੰਨਿਆ ਜਾਂਦਾ ਹੈ, ਨੇ ਇੱਕ ਵਾਰ ਕਿਹਾ ਸੀ: “ਜੇਕਰ ਇੱਕ ਮਸ਼ੀਨ ਅਸ਼ੁੱਧ ਹੋਣ ਦੀ ਉਮੀਦ ਕੀਤੀ ਜਾਂਦੀ ਹੈ, ਤਾਂ ਇਹ ਬੁੱਧੀਮਾਨ ਵੀ ਨਹੀਂ ਹੋ ਸਕਦੀ।” ਇਹ ਇਸ ਲਈ ਹੈ ਕਿਉਂਕਿ ਸਿੱਖਣਾ ਬੁੱਧੀ ਦਾ ਇੱਕ ਜ਼ਰੂਰੀ ਹਿੱਸਾ ਹੈ ਅਤੇ ਲੋਕ ਆਮ ਤੌਰ ‘ਤੇ ਗਲਤੀਆਂ ਤੋਂ ਸਿੱਖਦੇ ਹਨ। ਮੈਂ ਆਪਣੀ ਖੋਜ ਵਿੱਚ ਖੁਫੀਆ ਅਤੇ ਅਸ਼ੁੱਧਤਾ ਦੇ ਵਿਚਕਾਰ ਇਸ ਲੜਾਈ-ਝਗੜੇ ਨੂੰ ਵੇਖਦਾ ਹਾਂ.

ਜੁਲਾਈ 2025 ਵਿੱਚ ਪ੍ਰਕਾਸ਼ਿਤ ਇੱਕ ਅਧਿਐਨ ਵਿੱਚ, ਮੈਂ ਅਤੇ ਮੇਰੇ ਸਹਿਕਰਮੀਆਂ ਨੇ ਦਿਖਾਇਆ ਕਿ ਕੁਝ ਡੇਟਾਸੈਟਾਂ ਨੂੰ ਸਪਸ਼ਟ ਸ਼੍ਰੇਣੀਆਂ ਵਿੱਚ ਪੂਰੀ ਤਰ੍ਹਾਂ ਵਿਵਸਥਿਤ ਕੀਤਾ ਗਿਆ ਹੈ। ਅਸੰਭਵ ਹੋ ਸਕਦਾ ਹੈ. ਦੂਜੇ ਸ਼ਬਦਾਂ ਵਿੱਚ, ਇੱਕ ਦਿੱਤੇ ਡੇਟਾਸੈਟ ਵਿੱਚ ਘੱਟ ਤੋਂ ਘੱਟ ਤਰੁੱਟੀਆਂ ਹੋ ਸਕਦੀਆਂ ਹਨ, ਸਿਰਫ਼ ਇਸ ਤੱਥ ਦੇ ਕਾਰਨ ਕਿ ਕਈ ਸ਼੍ਰੇਣੀਆਂ ਦੇ ਤੱਤ ਓਵਰਲੈਪ ਹੁੰਦੇ ਹਨ। ਕੁਝ ਡੇਟਾਸੈਟਾਂ ਲਈ – ਬਹੁਤ ਸਾਰੇ AI ਸਿਸਟਮਾਂ ਦਾ ਮੁੱਖ ਅਧਾਰ – AI ਮੌਕਾ ਤੋਂ ਬਿਹਤਰ ਪ੍ਰਦਰਸ਼ਨ ਨਹੀਂ ਕਰੇਗਾ।

ਉਦਾਹਰਨ ਲਈ, ਲੱਖਾਂ ਕੁੱਤਿਆਂ ਦੇ ਡੇਟਾਸੈੱਟ ‘ਤੇ ਸਿਖਲਾਈ ਪ੍ਰਾਪਤ ਇੱਕ ਮਾਡਲ ਜੋ ਸਿਰਫ਼ ਉਹਨਾਂ ਦੀ ਉਮਰ, ਭਾਰ, ਅਤੇ ਉਚਾਈ ਨੂੰ ਲੌਗ ਕਰਦਾ ਹੈ ਸੰਭਾਵਤ ਤੌਰ ‘ਤੇ ਵੱਖਰਾ ਹੋਵੇਗਾ। chihuahuas ਤੋਂ ਮਹਾਨ ਡੈਨ ਪੂਰੀ ਸ਼ੁੱਧਤਾ ਨਾਲ. ਪਰ ਇਸ ਨੂੰ ਵੱਖਰਾ ਦੱਸਣਾ ਇੱਕ ਗਲਤੀ ਹੋ ਸਕਦੀ ਹੈ ਅਲਾਸਕਾ ਮੈਲਾਮੁਟ ਅਤੇ ਏ Doberman Pinscherਕਿਉਂਕਿ ਵੱਖ-ਵੱਖ ਪ੍ਰਜਾਤੀਆਂ ਦੇ ਵੱਖ-ਵੱਖ ਵਿਅਕਤੀ ਇੱਕੋ ਉਮਰ, ਭਾਰ ਅਤੇ ਉਚਾਈ ਦੀ ਰੇਂਜ ਵਿੱਚ ਡਿੱਗ ਸਕਦੇ ਹਨ।

ਇਸ ਵਰਗੀਕਰਣ ਨੂੰ ਵਰਗੀਕਰਨ ਕਿਹਾ ਜਾਂਦਾ ਹੈ, ਅਤੇ ਮੈਂ ਅਤੇ ਮੇਰੇ ਵਿਦਿਆਰਥੀਆਂ ਨੇ 2021 ਵਿੱਚ ਇਸਦਾ ਅਧਿਐਨ ਕਰਨਾ ਸ਼ੁਰੂ ਕੀਤਾ ਸੀ। 2008 ਅਤੇ 2020 ਦੇ ਵਿਚਕਾਰ ਯੂਨੀਵਰਸਿਡੈਡ ਨੈਸ਼ਨਲ ਆਟੋਨੋਮਾ ਡੇ ਮੈਕਸੀਕੋ ਵਿੱਚ ਸ਼ਾਮਲ ਹੋਣ ਵਾਲੇ ਅੱਧੇ ਮਿਲੀਅਨ ਤੋਂ ਵੱਧ ਵਿਦਿਆਰਥੀਆਂ ਦੇ ਡੇਟਾ ਦੀ ਵਰਤੋਂ ਕਰਦੇ ਹੋਏ, ਅਸੀਂ ਇੱਕ ਸਧਾਰਨ ਸਮੱਸਿਆ ਨੂੰ ਹੱਲ ਕਰਨਾ ਚਾਹੁੰਦੇ ਸੀ। ਕੀ ਅਸੀਂ ਇਹ ਅੰਦਾਜ਼ਾ ਲਗਾਉਣ ਲਈ AI ਐਲਗੋਰਿਦਮ ਦੀ ਵਰਤੋਂ ਕਰ ਸਕਦੇ ਹਾਂ ਕਿ ਕਿਹੜੇ ਵਿਦਿਆਰਥੀ ਸਮੇਂ ‘ਤੇ ਆਪਣੀਆਂ ਯੂਨੀਵਰਸਿਟੀ ਦੀਆਂ ਡਿਗਰੀਆਂ ਪੂਰੀਆਂ ਕਰਨਗੇ – ਅਰਥਾਤ, ਆਪਣੀ ਪੜ੍ਹਾਈ ਸ਼ੁਰੂ ਕਰਨ ਦੇ ਤਿੰਨ, ਚਾਰ ਜਾਂ ਪੰਜ ਸਾਲਾਂ ਦੇ ਅੰਦਰ, ਮੁੱਖ ‘ਤੇ ਨਿਰਭਰ ਕਰਦੇ ਹੋਏ?

ਅਸੀਂ AI ਵਿੱਚ ਵਰਗੀਕਰਣ ਲਈ ਵਰਤੇ ਗਏ ਕਈ ਪ੍ਰਸਿੱਧ ਐਲਗੋਰਿਦਮ ਦੀ ਜਾਂਚ ਕੀਤੀ ਅਤੇ ਸਾਡਾ ਆਪਣਾ ਐਲਗੋਰਿਦਮ ਵੀ ਵਿਕਸਤ ਕੀਤਾ। ਕੋਈ ਵੀ ਐਲਗੋਰਿਥਮ ਸੰਪੂਰਨ ਨਹੀਂ ਸੀ; ਸੱਬਤੋਂ ਉੱਤਮ – ਇੱਥੋਂ ਤੱਕ ਕਿ ਇੱਕ ਜੋ ਅਸੀਂ ਇਸ ਕੰਮ ਲਈ ਵਿਸ਼ੇਸ਼ ਤੌਰ ‘ਤੇ ਵਿਕਸਤ ਕੀਤਾ ਹੈ – ਲਗਭਗ 80% ਦੀ ਸ਼ੁੱਧਤਾ ਦਰ ਪ੍ਰਾਪਤ ਕੀਤੀ, ਮਤਲਬ ਕਿ 5 ਵਿੱਚੋਂ 1 ਤੋਂ ਵੀ ਘੱਟ ਵਿਦਿਆਰਥੀਆਂ ਨੂੰ ਗਲਤ ਸ਼੍ਰੇਣੀਬੱਧ ਕੀਤਾ ਗਿਆ ਸੀ। ਅਸੀਂ ਮਹਿਸੂਸ ਕੀਤਾ ਕਿ ਬਹੁਤ ਸਾਰੇ ਵਿਦਿਆਰਥੀ ਗ੍ਰੇਡਾਂ, ਉਮਰ, ਲਿੰਗ, ਸਮਾਜਕ-ਆਰਥਿਕ ਸਥਿਤੀ, ਅਤੇ ਹੋਰ ਵਿਸ਼ੇਸ਼ਤਾਵਾਂ ਦੇ ਰੂਪ ਵਿੱਚ ਸਮਾਨ ਸਨ — ਫਿਰ ਵੀ ਕੁਝ ਸਮੇਂ ‘ਤੇ ਖਤਮ ਹੋ ਜਾਣਗੇ, ਅਤੇ ਕੁਝ ਨਹੀਂ ਕਰਨਗੇ। ਇਹਨਾਂ ਹਾਲਤਾਂ ਵਿੱਚ, ਕੋਈ ਵੀ ਐਲਗੋਰਿਦਮ ਸਹੀ ਭਵਿੱਖਬਾਣੀ ਕਰਨ ਦੇ ਯੋਗ ਨਹੀਂ ਹੋਵੇਗਾ।

ਤੁਸੀਂ ਸੋਚ ਸਕਦੇ ਹੋ ਕਿ ਵਧੇਰੇ ਡੇਟਾ ਪੂਰਵ ਅਨੁਮਾਨਾਂ ਵਿੱਚ ਸੁਧਾਰ ਕਰੇਗਾ, ਪਰ ਇਹ ਆਮ ਤੌਰ ‘ਤੇ ਘੱਟਦੀ ਰਿਟਰਨ ਦੇ ਨਾਲ ਆਉਂਦਾ ਹੈ। ਇਸਦਾ ਮਤਲਬ ਹੈ ਕਿ, ਉਦਾਹਰਨ ਲਈ, 1% ਦੀ ਸ਼ੁੱਧਤਾ ਵਿੱਚ ਹਰੇਕ ਵਾਧੇ ਲਈ, ਤੁਹਾਨੂੰ 100 ਗੁਣਾ ਜ਼ਿਆਦਾ ਡੇਟਾ ਦੀ ਲੋੜ ਹੋ ਸਕਦੀ ਹੈ। ਇਸ ਤਰ੍ਹਾਂ, ਸਾਡੇ ਮਾਡਲਾਂ ਦੀ ਕਾਰਗੁਜ਼ਾਰੀ ਵਿੱਚ ਮਹੱਤਵਪੂਰਨ ਸੁਧਾਰ ਕਰਨ ਲਈ ਸਾਡੇ ਕੋਲ ਇੰਨੇ ਵਿਦਿਆਰਥੀ ਨਹੀਂ ਹੋਣਗੇ।

ਇਸ ਤੋਂ ਇਲਾਵਾ, ਵਿਦਿਆਰਥੀਆਂ ਅਤੇ ਉਹਨਾਂ ਦੇ ਪਰਿਵਾਰਾਂ ਦੇ ਜੀਵਨ ਵਿੱਚ ਕਈ ਅਣਕਿਆਸੇ ਮੋੜ – ਬੇਰੋਜ਼ਗਾਰੀ, ਮੌਤ, ਗਰਭ-ਅਵਸਥਾ – ਉਹਨਾਂ ਦੇ ਯੂਨੀਵਰਸਿਟੀ ਵਿੱਚ ਪਹਿਲੇ ਸਾਲ ਤੋਂ ਬਾਅਦ ਆ ਸਕਦੇ ਹਨ, ਜੋ ਇਹ ਪ੍ਰਭਾਵਿਤ ਕਰ ਸਕਦੇ ਹਨ ਕਿ ਕੀ ਉਹ ਸਮੇਂ ਸਿਰ ਪੂਰਾ ਕਰਦੇ ਹਨ। ਇਸ ਲਈ ਬੇਅੰਤ ਵਿਦਿਆਰਥੀਆਂ ਦੇ ਬਾਵਜੂਦ, ਸਾਡੀਆਂ ਭਵਿੱਖਬਾਣੀਆਂ ਅਜੇ ਵੀ ਗਲਤੀਆਂ ਪੈਦਾ ਕਰਨਗੀਆਂ।

ਪੂਰਵ ਅਨੁਮਾਨ ਸੀਮਾ

ਇਸ ਨੂੰ ਹੋਰ ਆਮ ਤੌਰ ‘ਤੇ ਰੱਖਣ ਲਈ, ਜੋ ਪੂਰਵ-ਅਨੁਮਾਨ ਨੂੰ ਸੀਮਤ ਕਰਦਾ ਹੈ ਉਹ ਹੈ ਜਟਿਲਤਾ. ਜਟਿਲਤਾ ਸ਼ਬਦ ਲਾਤੀਨੀ ਪਲੇਕਸਸ ਤੋਂ ਆਇਆ ਹੈ, ਜਿਸਦਾ ਅਰਥ ਹੈ ਆਪਸ ਵਿੱਚ ਜੁੜਿਆ ਹੋਇਆ। ਇੱਕ ਗੁੰਝਲਦਾਰ ਸਿਸਟਮ ਬਣਾਉਣ ਵਾਲੇ ਹਿੱਸੇ ਆਪਸ ਵਿੱਚ ਜੁੜੇ ਹੋਏ ਹਨ, ਅਤੇ ਇਹ ਹੈ ਉਹਨਾਂ ਵਿਚਕਾਰ ਗੱਲਬਾਤ ਇਹ ਨਿਰਧਾਰਤ ਕਰਦਾ ਹੈ ਕਿ ਉਹਨਾਂ ਨਾਲ ਕੀ ਹੁੰਦਾ ਹੈ ਅਤੇ ਉਹ ਕਿਵੇਂ ਵਿਵਹਾਰ ਕਰਦੇ ਹਨ।

ਇਸ ਤਰ੍ਹਾਂ, ਅਲੱਗ-ਥਲੱਗ ਵਿੱਚ ਇੱਕ ਸਿਸਟਮ ਦੇ ਤੱਤਾਂ ਦਾ ਅਧਿਐਨ ਕਰਨ ਨਾਲ ਸੰਭਾਵਤ ਤੌਰ ‘ਤੇ ਉਹਨਾਂ ਬਾਰੇ ਗੁੰਮਰਾਹਕੁੰਨ ਸਮਝ ਪ੍ਰਾਪਤ ਹੋਵੇਗੀ – ਨਾਲ ਹੀ ਸਮੁੱਚੇ ਸਿਸਟਮ ਬਾਰੇ।

ਉਦਾਹਰਨ ਲਈ, ਕਿਸੇ ਸ਼ਹਿਰ ਵਿੱਚ ਯਾਤਰਾ ਕਰਨ ਵਾਲੀ ਕਾਰ ਲਓ। ਇਹ ਜਾਣ ਕੇ ਕਿ ਇਹ ਕਿਸ ਗਤੀ ਨਾਲ ਚਲਦਾ ਹੈ, ਸਿਧਾਂਤਕ ਤੌਰ ‘ਤੇ ਇਹ ਅਨੁਮਾਨ ਲਗਾਉਣਾ ਸੰਭਵ ਹੈ ਕਿ ਇਹ ਕਿਸੇ ਖਾਸ ਸਮੇਂ ‘ਤੇ ਕਿੱਥੇ ਖਤਮ ਹੋਵੇਗਾ। ਪਰ ਅਸਲ ਟ੍ਰੈਫਿਕ ਵਿੱਚ, ਇਸਦੀ ਗਤੀ ਸੜਕ ‘ਤੇ ਦੂਜੇ ਵਾਹਨਾਂ ਦੇ ਨਾਲ ਇਸਦੇ ਸੰਪਰਕ ‘ਤੇ ਨਿਰਭਰ ਕਰੇਗੀ। ਕਿਉਂਕਿ ਇਹਨਾਂ ਪਰਸਪਰ ਕ੍ਰਿਆਵਾਂ ਦੇ ਵੇਰਵੇ ਪਲ ਪਲ ਸਾਹਮਣੇ ਆਉਂਦੇ ਹਨ ਅਤੇ ਪਹਿਲਾਂ ਤੋਂ ਨਹੀਂ ਜਾਣੇ ਜਾ ਸਕਦੇ ਹਨ, ਇਸ ਲਈ ਕੁਝ ਹੀ ਮਿੰਟਾਂ ਵਿੱਚ ਭਵਿੱਖ ਵਿੱਚ ਕਾਰ ਦਾ ਕੀ ਹੋਵੇਗਾ ਇਸਦਾ ਸਹੀ ਅੰਦਾਜ਼ਾ ਲਗਾਉਣਾ ਸੰਭਵ ਹੈ।

ਮੇਰੀ ਸਿਹਤ ਨਾਲ ਨਹੀਂ

ਇਹੀ ਸਿਧਾਂਤ ਦਵਾਈਆਂ ਦੀ ਤਜਵੀਜ਼ ਕਰਨ ‘ਤੇ ਲਾਗੂ ਹੁੰਦੇ ਹਨ। ਵੱਖ-ਵੱਖ ਸਥਿਤੀਆਂ ਅਤੇ ਬਿਮਾਰੀਆਂ ਦੇ ਇੱਕੋ ਜਿਹੇ ਲੱਛਣ ਹੋ ਸਕਦੇ ਹਨ ਅਤੇ ਇੱਕੋ ਸਥਿਤੀ ਜਾਂ ਬਿਮਾਰੀ ਵਾਲੇ ਲੋਕਾਂ ਵਿੱਚ ਵੱਖੋ-ਵੱਖਰੇ ਲੱਛਣ ਹੋ ਸਕਦੇ ਹਨ। ਉਦਾਹਰਨ ਲਈ, ਬੁਖਾਰ ਸਾਹ ਦੀ ਬੀਮਾਰੀ ਜਾਂ ਪਾਚਨ ਸੰਬੰਧੀ ਬੀਮਾਰੀ ਕਾਰਨ ਹੋ ਸਕਦਾ ਹੈ। ਅਤੇ ਜ਼ੁਕਾਮ ਖੰਘ ਦਾ ਕਾਰਨ ਬਣ ਸਕਦਾ ਹੈ, ਪਰ ਹਮੇਸ਼ਾ ਨਹੀਂ।

ਇਸਦਾ ਮਤਲਬ ਹੈ ਕਿ ਸਿਹਤ ਸੰਭਾਲ ਡੇਟਾਸੇਟਾਂ ਵਿੱਚ ਮਹੱਤਵਪੂਰਨ ਓਵਰਲੈਪ ਹਨ ਜੋ AI ਨੂੰ ਗਲਤੀ-ਮੁਕਤ ਹੋਣ ਤੋਂ ਰੋਕਣਗੇ।

ਬੇਸ਼ੱਕ ਇਨਸਾਨ ਵੀ ਗ਼ਲਤੀਆਂ ਕਰਦੇ ਹਨ। ਪਰ ਜਦੋਂ ਏਆਈ ਕਿਸੇ ਮਰੀਜ਼ ਦਾ ਗਲਤ ਨਿਦਾਨ ਕਰਦਾ ਹੈ, ਤਾਂ ਸਥਿਤੀ ਯਕੀਨੀ ਤੌਰ ‘ਤੇ ਵਿਗੜ ਜਾਂਦੀ ਹੈ ਕਾਨੂੰਨੀ ਮੁਸੀਬਤ ਵਿੱਚ ਫਸ ਜਾਂਦਾ ਹੈ. ਇਹ ਅਸਪਸ਼ਟ ਹੈ ਕਿ ਜੇਕਰ ਕੋਈ ਮਰੀਜ਼ ਜ਼ਖਮੀ ਹੁੰਦਾ ਹੈ ਤਾਂ ਕੌਣ ਜਾਂ ਕਿਸ ਨੂੰ ਜ਼ਿੰਮੇਵਾਰ ਠਹਿਰਾਇਆ ਜਾਵੇਗਾ। ਫਾਰਮਾਸਿਊਟੀਕਲ ਕੰਪਨੀਆਂ? ਸਾਫਟਵੇਅਰ ਡਿਵੈਲਪਰ? ਬੀਮਾ ਏਜੰਸੀਆਂ? ਫਾਰਮੇਸੀਆਂ?

ਬਹੁਤ ਸਾਰੇ ਸੰਦਰਭਾਂ ਵਿੱਚ, ਨਾ ਤਾਂ ਮਨੁੱਖ ਅਤੇ ਨਾ ਹੀ ਮਸ਼ੀਨਾਂ ਇੱਕ ਦਿੱਤੇ ਕਾਰਜ ਲਈ ਸਭ ਤੋਂ ਵਧੀਆ ਵਿਕਲਪ ਹਨ। “ਸੈਂਟੌਰਸ” ਜਾਂ “ਹਾਈਬ੍ਰਿਡ ਇੰਟੈਲੀਜੈਂਸ” – ਯਾਨੀ ਮਨੁੱਖਾਂ ਅਤੇ ਮਸ਼ੀਨਾਂ ਦਾ ਸੁਮੇਲ – ਉਹ ਆਪਣੇ ਆਪ ਵਿੱਚ ਹਰੇਕ ਨਾਲੋਂ ਬਿਹਤਰ ਹਨ. ਇੱਕ ਡਾਕਟਰ ਉਹਨਾਂ ਦੇ ਡਾਕਟਰੀ ਇਤਿਹਾਸ, ਸਰੀਰਕ ਵਰਣਨ ਅਤੇ ਜੈਨੇਟਿਕ ਮੇਕਅਪ ਦੇ ਅਧਾਰ ਤੇ, ਵੱਖ-ਵੱਖ ਮਰੀਜ਼ਾਂ ਲਈ ਵਰਤੀਆਂ ਜਾਣ ਵਾਲੀਆਂ ਸੰਭਾਵਿਤ ਦਵਾਈਆਂ ਦਾ ਫੈਸਲਾ ਕਰਨ ਲਈ AI ਦੀ ਵਰਤੋਂ ਜ਼ਰੂਰ ਕਰ ਸਕਦਾ ਹੈ। ਖੋਜਕਰਤਾ ਪਹਿਲਾਂ ਹੀ ਇਸ ਪਹੁੰਚ ਦੀ ਖੋਜ ਕਰ ਰਹੇ ਹਨ ਸ਼ੁੱਧਤਾ ਦਵਾਈ.

ਪਰ ਆਮ ਸਮਝ ਅਤੇ ਸਾਵਧਾਨੀ ਦੇ ਸਿਧਾਂਤ ਸੁਝਾਅ ਇਹ ਹੈ ਕਿ AI ਲਈ ਮਨੁੱਖੀ ਨਿਗਰਾਨੀ ਤੋਂ ਬਿਨਾਂ ਦਵਾਈਆਂ ਲਿਖਣਾ ਬਹੁਤ ਜਲਦੀ ਹੈ। ਅਤੇ ਇਹ ਤੱਥ ਕਿ ਤਕਨਾਲੋਜੀ ਵਿੱਚ ਗਲਤੀਆਂ ਸ਼ਾਮਲ ਹੋ ਸਕਦੀਆਂ ਹਨ ਦਾ ਮਤਲਬ ਹੈ ਕਿ ਮਨੁੱਖੀ ਨਿਗਰਾਨੀ ਹਮੇਸ਼ਾ ਜ਼ਰੂਰੀ ਹੋਵੇਗੀ ਜਿੱਥੇ ਮਨੁੱਖੀ ਸਿਹਤ ਦਾਅ ‘ਤੇ ਹੈ।

(ਕਾਰਲੋਸ ਗਰਸ਼ੇਨਸਨ ਨਿਊਯਾਰਕ ਦੀ ਸਟੇਟ ਯੂਨੀਵਰਸਿਟੀ, ਬਿੰਘਮਟਨ ਯੂਨੀਵਰਸਿਟੀ ਵਿੱਚ ਇਨੋਵੇਸ਼ਨ ਦੇ ਪ੍ਰੋਫੈਸਰ ਹਨ)

ਇਹ ਲੇਖ ਕਰੀਏਟਿਵ ਕਾਮਨਜ਼ ਲਾਇਸੰਸ ਦੇ ਤਹਿਤ ਗੱਲਬਾਤ ਤੋਂ ਮੁੜ ਪ੍ਰਕਾਸ਼ਿਤ ਕੀਤਾ ਗਿਆ ਹੈ। ਇੱਥੇ ਮੂਲ ਲੇਖ ਪੜ੍ਹੋ: https://theconversation.com/ais-errors-may-be-impossible-to-eliminate-what-that-means-for-its-use-in-health-care-251036.

Leave a Reply

Your email address will not be published. Required fields are marked *