ਸਿਹਤ ਸਲਾਹ ਲਈ AI ਚੈਟਬੋਟ ਨੂੰ ਪੁੱਛਣ ਤੋਂ ਪਹਿਲਾਂ ਕੀ ਜਾਣਨਾ ਚਾਹੀਦਾ ਹੈ?

ਸਿਹਤ ਸਲਾਹ ਲਈ AI ਚੈਟਬੋਟ ਨੂੰ ਪੁੱਛਣ ਤੋਂ ਪਹਿਲਾਂ ਕੀ ਜਾਣਨਾ ਚਾਹੀਦਾ ਹੈ?

ਤਕਨੀਕੀ ਕੰਪਨੀਆਂ ਨਵੇਂ ਹੈਲਥ ਚੈਟਬੋਟਸ ਨੂੰ ਅੱਗੇ ਵਧਾ ਰਹੀਆਂ ਹਨ, ਪਰ ਮਾਹਰ ਕਹਿੰਦੇ ਹਨ ਕਿ ਤੁਹਾਨੂੰ ਅਜੇ ਵੀ ਆਪਣੇ ਡਾਕਟਰ ਨਾਲ ਗੱਲ ਕਰਨ ਦੀ ਲੋੜ ਹੈ

ਲੱਖਾਂ ਲੋਕਾਂ ਦੇ ਸਲਾਹ ਲਈ ਚੈਟਬੋਟਸ ਵੱਲ ਮੁੜਨ ਦੇ ਨਾਲ, ਇਹ ਸਿਰਫ ਸਮੇਂ ਦੀ ਗੱਲ ਸੀ ਇਸ ਤੋਂ ਪਹਿਲਾਂ ਕਿ ਤਕਨੀਕੀ ਕੰਪਨੀਆਂ ਨੇ ਖਾਸ ਤੌਰ ‘ਤੇ ਸਿਹਤ-ਸਬੰਧਤ ਸਵਾਲਾਂ ਦੇ ਜਵਾਬ ਦੇਣ ਲਈ ਤਿਆਰ ਕੀਤੇ ਪ੍ਰੋਗਰਾਮਾਂ ਦੀ ਪੇਸ਼ਕਸ਼ ਸ਼ੁਰੂ ਕੀਤੀ।

ਜਨਵਰੀ ਵਿੱਚ, ਓਪਨਏਆਈ ਨੇ ਆਪਣੇ ਚੈਟਬੋਟ, ਚੈਟਜੀਪੀਟੀ ਹੈਲਥ ਦਾ ਇੱਕ ਨਵਾਂ ਸੰਸਕਰਣ ਪੇਸ਼ ਕੀਤਾ, ਜਿਸ ਬਾਰੇ ਕੰਪਨੀ ਦਾ ਕਹਿਣਾ ਹੈ ਕਿ ਸਿਹਤ ਅਤੇ ਡਾਕਟਰੀ ਸਵਾਲਾਂ ਦੇ ਜਵਾਬ ਦੇਣ ਲਈ ਉਪਭੋਗਤਾਵਾਂ ਦੇ ਮੈਡੀਕਲ ਰਿਕਾਰਡ, ਤੰਦਰੁਸਤੀ ਐਪਸ ਅਤੇ ਪਹਿਨਣਯੋਗ ਡਿਵਾਈਸ ਡੇਟਾ ਦਾ ਵਿਸ਼ਲੇਸ਼ਣ ਕਰ ਸਕਦਾ ਹੈ। ਵਰਤਮਾਨ ਵਿੱਚ, ਪ੍ਰੋਗਰਾਮਾਂ ਲਈ ਇੱਕ ਉਡੀਕ ਸੂਚੀ ਹੈ. ਐਂਥਰੋਪਿਕ, ਇੱਕ ਵਿਰੋਧੀ AI ਕੰਪਨੀ, ਆਪਣੇ ਕਲਾਉਡ ਚੈਟਬੋਟ ਦੇ ਕੁਝ ਉਪਭੋਗਤਾਵਾਂ ਲਈ ਸਮਾਨ ਵਿਸ਼ੇਸ਼ਤਾਵਾਂ ਦੀ ਪੇਸ਼ਕਸ਼ ਕਰਦੀ ਹੈ.

ਦੋਵੇਂ ਕੰਪਨੀਆਂ ਦਾ ਕਹਿਣਾ ਹੈ ਕਿ ਉਹਨਾਂ ਦੇ ਪ੍ਰੋਗਰਾਮ, ਜਿਨ੍ਹਾਂ ਨੂੰ ਵੱਡੇ ਭਾਸ਼ਾ ਮਾਡਲਾਂ ਵਜੋਂ ਜਾਣਿਆ ਜਾਂਦਾ ਹੈ, ਪੇਸ਼ੇਵਰ ਦੇਖਭਾਲ ਦਾ ਬਦਲ ਨਹੀਂ ਹਨ ਅਤੇ ਇਹਨਾਂ ਦੀ ਵਰਤੋਂ ਡਾਕਟਰੀ ਸਥਿਤੀਆਂ ਦਾ ਨਿਦਾਨ ਕਰਨ ਲਈ ਨਹੀਂ ਕੀਤੀ ਜਾਣੀ ਚਾਹੀਦੀ। ਇਸ ਦੀ ਬਜਾਏ, ਉਹ ਕਹਿੰਦੇ ਹਨ ਕਿ ਚੈਟਬੋਟਸ ਗੁੰਝਲਦਾਰ ਟੈਸਟ ਦੇ ਨਤੀਜਿਆਂ ਦਾ ਸੰਖੇਪ ਅਤੇ ਵਿਆਖਿਆ ਕਰ ਸਕਦੇ ਹਨ, ਡਾਕਟਰ ਦੀ ਫੇਰੀ ਲਈ ਤਿਆਰ ਕਰਨ ਵਿੱਚ ਮਦਦ ਕਰ ਸਕਦੇ ਹਨ ਜਾਂ ਮੈਡੀਕਲ ਰਿਕਾਰਡਾਂ ਅਤੇ ਐਪ ਮੈਟ੍ਰਿਕਸ ਵਿੱਚ ਛੁਪੇ ਮਹੱਤਵਪੂਰਨ ਸਿਹਤ ਰੁਝਾਨਾਂ ਦਾ ਵਿਸ਼ਲੇਸ਼ਣ ਕਰ ਸਕਦੇ ਹਨ।

ਇੱਥੇ ਤੁਹਾਡੀ ਸਿਹਤ ਬਾਰੇ ਚੈਟਬੋਟ ਨਾਲ ਗੱਲ ਕਰਨ ਤੋਂ ਪਹਿਲਾਂ ਵਿਚਾਰਨ ਲਈ ਕੁਝ ਗੱਲਾਂ ਹਨ:

ਕੁਝ ਡਾਕਟਰ ਅਤੇ ਖੋਜਕਰਤਾ ਜਿਨ੍ਹਾਂ ਨੇ ਚੈਟਜੀਪੀਟੀ ਹੈਲਥ ਅਤੇ ਇਸ ਤਰ੍ਹਾਂ ਦੇ ਪ੍ਰੋਗਰਾਮਾਂ ਨਾਲ ਕੰਮ ਕੀਤਾ ਹੈ, ਉਹਨਾਂ ਨੂੰ ਸਥਿਤੀ ਵਿੱਚ ਸੁਧਾਰ ਵਜੋਂ ਦੇਖਦੇ ਹਨ।

AI ਪਲੇਟਫਾਰਮ ਸੰਪੂਰਣ ਨਹੀਂ ਹਨ – ਉਹ ਕਈ ਵਾਰ ਭੁਲੇਖਾ ਪਾ ਸਕਦੇ ਹਨ ਜਾਂ ਬੁਰੀ ਸਲਾਹ ਦੇ ਸਕਦੇ ਹਨ – ਪਰ ਉਹਨਾਂ ਦੁਆਰਾ ਤਿਆਰ ਕੀਤੀ ਗਈ ਜਾਣਕਾਰੀ ਵਿਅਕਤੀਗਤ ਅਤੇ ਖਾਸ ਹੋਣ ਦੀ ਸੰਭਾਵਨਾ ਵੱਧ ਹੁੰਦੀ ਹੈ ਜੋ ਜਾਣਕਾਰੀ ਮਰੀਜ਼ਾਂ ਨੂੰ Google ਖੋਜ ਦੁਆਰਾ ਮਿਲਦੀ ਹੈ।

ਕੈਲੀਫੋਰਨੀਆ ਯੂਨੀਵਰਸਿਟੀ, ਸੈਨ ਫਰਾਂਸਿਸਕੋ ਦੇ ਡਾਕਟਰੀ ਤਕਨਾਲੋਜੀ ਮਾਹਰ ਡਾ ਰਾਬਰਟ ਵਾਚਟਰ ਨੇ ਕਿਹਾ, “ਅਕਸਰ ਵਿਕਲਪ ਕੁਝ ਵੀ ਨਹੀਂ ਹੁੰਦਾ, ਜਾਂ ਮਰੀਜ਼ ਕੋਈ ਪਰਵਾਹ ਨਹੀਂ ਕਰਦਾ।” “ਅਤੇ ਇਸ ਲਈ ਮੈਂ ਸੋਚਦਾ ਹਾਂ ਕਿ ਜੇ ਤੁਸੀਂ ਇਹਨਾਂ ਸਾਧਨਾਂ ਨੂੰ ਜ਼ਿੰਮੇਵਾਰੀ ਨਾਲ ਵਰਤਦੇ ਹੋ, ਤਾਂ ਮੈਨੂੰ ਲਗਦਾ ਹੈ ਕਿ ਤੁਸੀਂ ਉਪਯੋਗੀ ਜਾਣਕਾਰੀ ਪ੍ਰਾਪਤ ਕਰ ਸਕਦੇ ਹੋ.”

ਨਵੀਨਤਮ ਚੈਟਬੋਟਸ ਦਾ ਇੱਕ ਫਾਇਦਾ ਇਹ ਹੈ ਕਿ ਉਹ ਉਪਭੋਗਤਾਵਾਂ ਦੇ ਸਵਾਲਾਂ ਦੇ ਜਵਾਬ ਉਹਨਾਂ ਦੇ ਡਾਕਟਰੀ ਇਤਿਹਾਸ ਦੇ ਸੰਦਰਭ ਵਿੱਚ ਦਿੰਦੇ ਹਨ, ਜਿਸ ਵਿੱਚ ਨੁਸਖ਼ੇ, ਉਮਰ ਅਤੇ ਡਾਕਟਰ ਦੇ ਨੋਟ ਸ਼ਾਮਲ ਹਨ।

ਭਾਵੇਂ ਤੁਸੀਂ AI ਨੂੰ ਆਪਣੀ ਡਾਕਟਰੀ ਜਾਣਕਾਰੀ ਤੱਕ ਪਹੁੰਚ ਨਹੀਂ ਦਿੱਤੀ ਹੈ, Wachter ਅਤੇ ਹੋਰ ਲੋਕ ਜਵਾਬਾਂ ਨੂੰ ਬਿਹਤਰ ਬਣਾਉਣ ਲਈ ਚੈਟਬੋਟਸ ਨੂੰ ਵੱਧ ਤੋਂ ਵੱਧ ਵੇਰਵੇ ਦੇਣ ਦੀ ਸਿਫ਼ਾਰਸ਼ ਕਰਦੇ ਹਨ।

ਵਾਚਟਰ ਅਤੇ ਹੋਰ ਇਸ ਗੱਲ ‘ਤੇ ਜ਼ੋਰ ਦਿੰਦੇ ਹਨ ਕਿ ਅਜਿਹੀਆਂ ਸਥਿਤੀਆਂ ਹੁੰਦੀਆਂ ਹਨ ਜਦੋਂ ਲੋਕਾਂ ਨੂੰ ਚੈਟਬੋਟ ਨੂੰ ਛੱਡ ਦੇਣਾ ਚਾਹੀਦਾ ਹੈ ਅਤੇ ਤੁਰੰਤ ਡਾਕਟਰੀ ਸਹਾਇਤਾ ਲੈਣੀ ਚਾਹੀਦੀ ਹੈ। ਸਾਹ ਦੀ ਕਮੀ, ਛਾਤੀ ਵਿੱਚ ਦਰਦ ਜਾਂ ਗੰਭੀਰ ਸਿਰ ਦਰਦ ਵਰਗੇ ਲੱਛਣ ਡਾਕਟਰੀ ਐਮਰਜੈਂਸੀ ਦਾ ਸੰਕੇਤ ਦੇ ਸਕਦੇ ਹਨ।

ਸਟੈਨਫੋਰਡ ਯੂਨੀਵਰਸਿਟੀ ਦੇ ਡਾ: ਲੋਇਡ ਮਾਈਨਰ ਨੇ ਕਿਹਾ ਕਿ ਘੱਟ ਜ਼ਰੂਰੀ ਸਥਿਤੀਆਂ ਦੇ ਦੌਰਾਨ ਵੀ, ਮਰੀਜ਼ਾਂ ਅਤੇ ਡਾਕਟਰਾਂ ਨੂੰ AI ਪ੍ਰੋਗਰਾਮਾਂ ਨੂੰ “ਕੁਝ ਹੱਦ ਤੱਕ ਸਿਹਤਮੰਦ ਸੰਦੇਹਵਾਦ” ਨਾਲ ਦੇਖਣਾ ਚਾਹੀਦਾ ਹੈ।

ਸਟੈਨਫੋਰਡ ਦੇ ਮੈਡੀਕਲ ਸਕੂਲ ਦੇ ਡੀਨ ਮਾਈਨਰ ਨੇ ਕਿਹਾ, “ਜੇਕਰ ਤੁਸੀਂ ਇੱਕ ਵੱਡੇ ਡਾਕਟਰੀ ਫੈਸਲੇ ਬਾਰੇ ਗੱਲ ਕਰ ਰਹੇ ਹੋ, ਜਾਂ ਆਪਣੀ ਸਿਹਤ ਬਾਰੇ ਇੱਕ ਛੋਟੇ ਫੈਸਲੇ ਦੀ ਗੱਲ ਕਰ ਰਹੇ ਹੋ, ਤਾਂ ਤੁਹਾਨੂੰ ਕਦੇ ਵੀ ਇਸ ਗੱਲ ‘ਤੇ ਭਰੋਸਾ ਨਹੀਂ ਕਰਨਾ ਚਾਹੀਦਾ ਹੈ ਕਿ ਤੁਸੀਂ ਇੱਕ ਵੱਡੇ ਭਾਸ਼ਾ ਮਾਡਲ ਤੋਂ ਕੀ ਪ੍ਰਾਪਤ ਕਰ ਰਹੇ ਹੋ।”

AI ਬੋਟਾਂ ਦੁਆਰਾ ਪੇਸ਼ ਕੀਤੇ ਗਏ ਬਹੁਤ ਸਾਰੇ ਲਾਭ ਨਿੱਜੀ ਡਾਕਟਰੀ ਜਾਣਕਾਰੀ ਸਾਂਝੀ ਕਰਨ ਵਾਲੇ ਉਪਭੋਗਤਾਵਾਂ ਤੋਂ ਆਉਂਦੇ ਹਨ। ਪਰ ਇਹ ਸਮਝਣਾ ਮਹੱਤਵਪੂਰਨ ਹੈ ਕਿ AI ਕੰਪਨੀ ਨਾਲ ਸਾਂਝੀ ਕੀਤੀ ਗਈ ਕੋਈ ਵੀ ਚੀਜ਼ ਸੰਘੀ ਗੋਪਨੀਯਤਾ ਕਾਨੂੰਨਾਂ ਦੁਆਰਾ ਸੁਰੱਖਿਅਤ ਨਹੀਂ ਹੈ ਜੋ ਆਮ ਤੌਰ ‘ਤੇ ਸੰਵੇਦਨਸ਼ੀਲ ਡਾਕਟਰੀ ਜਾਣਕਾਰੀ ਨੂੰ ਨਿਯੰਤਰਿਤ ਕਰਦੇ ਹਨ।

ਇਹ ਕਾਨੂੰਨ, ਆਮ ਤੌਰ ‘ਤੇ HIPAA ਵਜੋਂ ਜਾਣਿਆ ਜਾਂਦਾ ਹੈ, ਮੈਡੀਕਲ ਰਿਕਾਰਡਾਂ ਦਾ ਖੁਲਾਸਾ ਕਰਨ ਵਾਲੇ ਡਾਕਟਰਾਂ, ਹਸਪਤਾਲਾਂ, ਬੀਮਾਕਰਤਾਵਾਂ ਜਾਂ ਹੋਰ ਸਿਹਤ ਸੰਭਾਲ ਪ੍ਰਦਾਤਾਵਾਂ ਲਈ ਜੁਰਮਾਨੇ ਅਤੇ ਜੇਲ੍ਹ ਦੇ ਸਮੇਂ ਦੀ ਵੀ ਇਜਾਜ਼ਤ ਦਿੰਦਾ ਹੈ। ਪਰ ਇਹ ਕਾਨੂੰਨ ਉਨ੍ਹਾਂ ਕੰਪਨੀਆਂ ‘ਤੇ ਲਾਗੂ ਨਹੀਂ ਹੁੰਦਾ ਜੋ ਚੈਟਬੋਟਸ ਡਿਜ਼ਾਈਨ ਕਰਦੀਆਂ ਹਨ।

ਮਾਈਨਰ ਨੇ ਕਿਹਾ, “ਜਦੋਂ ਕੋਈ ਵਿਅਕਤੀ ਆਪਣਾ ਮੈਡੀਕਲ ਚਾਰਟ ਇੱਕ ਵੱਡੀ ਭਾਸ਼ਾ ਦੇ ਮਾਡਲ ਵਿੱਚ ਅੱਪਲੋਡ ਕਰ ਰਿਹਾ ਹੈ, ਤਾਂ ਇਹ ਇਸਨੂੰ ਇੱਕ ਨਵੇਂ ਡਾਕਟਰ ਨੂੰ ਸੌਂਪਣ ਨਾਲੋਂ ਬਹੁਤ ਵੱਖਰਾ ਹੈ,” ਮਾਈਨਰ ਨੇ ਕਿਹਾ। “ਖਪਤਕਾਰਾਂ ਨੂੰ ਇਹ ਸਮਝਣ ਦੀ ਲੋੜ ਹੈ ਕਿ ਉਹਨਾਂ ਕੋਲ ਪੂਰੀ ਤਰ੍ਹਾਂ ਵੱਖ-ਵੱਖ ਗੋਪਨੀਯਤਾ ਮਾਪਦੰਡ ਹਨ.”

ਓਪਨਏਆਈ ਅਤੇ ਐਂਥਰੋਪਿਕ ਦੋਵੇਂ ਕਹਿੰਦੇ ਹਨ ਕਿ ਉਪਭੋਗਤਾਵਾਂ ਦੀ ਸਿਹਤ ਜਾਣਕਾਰੀ ਨੂੰ ਹੋਰ ਕਿਸਮ ਦੇ ਡੇਟਾ ਤੋਂ ਵੱਖ ਰੱਖਿਆ ਜਾਂਦਾ ਹੈ ਅਤੇ ਵਾਧੂ ਗੋਪਨੀਯਤਾ ਸੁਰੱਖਿਆ ਦੇ ਅਧੀਨ ਹੁੰਦਾ ਹੈ। ਕੰਪਨੀਆਂ ਆਪਣੇ ਮਾਡਲਾਂ ਨੂੰ ਸਿਖਲਾਈ ਦੇਣ ਲਈ ਸਿਹਤ ਡੇਟਾ ਦੀ ਵਰਤੋਂ ਨਹੀਂ ਕਰਦੀਆਂ ਹਨ। ਉਪਭੋਗਤਾਵਾਂ ਨੂੰ ਆਪਣੀ ਜਾਣਕਾਰੀ ਸਾਂਝੀ ਕਰਨ ਲਈ ਚੋਣ ਕਰਨੀ ਚਾਹੀਦੀ ਹੈ ਅਤੇ ਕਿਸੇ ਵੀ ਸਮੇਂ ਡਿਸਕਨੈਕਟ ਕਰ ਸਕਦੇ ਹਨ।

AI ਦੇ ਆਲੇ-ਦੁਆਲੇ ਉਤਸ਼ਾਹ ਦੇ ਬਾਵਜੂਦ, ਤਕਨਾਲੋਜੀ ਦੀ ਸੁਤੰਤਰ ਜਾਂਚ ਆਪਣੀ ਸ਼ੁਰੂਆਤੀ ਅਵਸਥਾ ਵਿੱਚ ਹੈ। ਸ਼ੁਰੂਆਤੀ ਅਧਿਐਨਾਂ ਤੋਂ ਪਤਾ ਚੱਲਦਾ ਹੈ ਕਿ ਚੈਟਜੀਪੀਟੀ ਵਰਗੇ ਪ੍ਰੋਗਰਾਮ ਉੱਚ ਪੱਧਰੀ ਡਾਕਟਰੀ ਪ੍ਰੀਖਿਆਵਾਂ ਵਿੱਚ ਸਫਲ ਹੋ ਸਕਦੇ ਹਨ ਪਰ ਮਨੁੱਖਾਂ ਨਾਲ ਗੱਲਬਾਤ ਕਰਨ ਵੇਲੇ ਅਕਸਰ ਅਸਫਲ ਹੋ ਜਾਂਦੇ ਹਨ।

ਆਕਸਫੋਰਡ ਯੂਨੀਵਰਸਿਟੀ ਦੁਆਰਾ ਹਾਲ ਹੀ ਵਿੱਚ ਕੀਤੇ ਗਏ 1,300-ਭਾਗੀਦਾਰ ਅਧਿਐਨ ਵਿੱਚ ਪਾਇਆ ਗਿਆ ਹੈ ਕਿ ਜਿਹੜੇ ਲੋਕ ਕਾਲਪਨਿਕ ਸਿਹਤ ਸਥਿਤੀਆਂ ਦੀ ਖੋਜ ਕਰਨ ਲਈ ਇੱਕ AI ਚੈਟਬੋਟ ਦੀ ਵਰਤੋਂ ਕਰਦੇ ਹਨ, ਉਹਨਾਂ ਲੋਕਾਂ ਨਾਲੋਂ ਬਿਹਤਰ ਫੈਸਲੇ ਨਹੀਂ ਲਏ ਜਿਨ੍ਹਾਂ ਨੇ ਔਨਲਾਈਨ ਖੋਜਾਂ ਜਾਂ ਵਿਅਕਤੀਗਤ ਨਿਰਣੇ ਦੀ ਵਰਤੋਂ ਕੀਤੀ ਸੀ।

ਵਿਆਪਕ, ਲਿਖਤੀ ਮੈਡੀਕਲ ਦ੍ਰਿਸ਼ਾਂ ਦੇ ਨਾਲ ਪੇਸ਼ ਕੀਤੇ ਗਏ AI ਚੈਟਬੋਟਸ ਨੇ 95% ਮਾਮਲਿਆਂ ਵਿੱਚ ਅੰਡਰਲਾਈੰਗ ਸਥਿਤੀ ਦੀ ਸਹੀ ਪਛਾਣ ਕੀਤੀ।

“ਇਹ ਸਮੱਸਿਆ ਨਹੀਂ ਸੀ,” ਆਕਸਫੋਰਡ ਇੰਟਰਨੈਟ ਇੰਸਟੀਚਿਊਟ ਦੇ ਪ੍ਰਮੁੱਖ ਲੇਖਕ ਐਡਮ ਮਹਿਦੀ ਨੇ ਕਿਹਾ। “ਉਹ ਜਗ੍ਹਾ ਜਿੱਥੇ ਚੀਜ਼ਾਂ ਵੱਖ ਹੋ ਗਈਆਂ ਸਨ ਉਹ ਅਸਲ ਭਾਗੀਦਾਰਾਂ ਨਾਲ ਗੱਲਬਾਤ ਦੌਰਾਨ ਸੀ।”

ਮਹਿਦੀ ਅਤੇ ਉਸਦੀ ਟੀਮ ਨੂੰ ਬਹੁਤ ਸਾਰੀਆਂ ਸੰਚਾਰ ਸਮੱਸਿਆਵਾਂ ਦਾ ਸਾਹਮਣਾ ਕਰਨਾ ਪਿਆ। ਲੋਕ ਅਕਸਰ ਚੈਟਬੋਟਸ ਨੂੰ ਉਹ ਜਾਣਕਾਰੀ ਨਹੀਂ ਦਿੰਦੇ ਸਨ ਜੋ ਉਹਨਾਂ ਨੂੰ ਕਿਸੇ ਸਿਹਤ ਸਮੱਸਿਆ ਦੀ ਸਹੀ ਪਛਾਣ ਕਰਨ ਲਈ ਲੋੜੀਂਦੀ ਸੀ। ਇਸਦੇ ਉਲਟ, AI ਸਿਸਟਮ ਅਕਸਰ ਚੰਗੀ ਅਤੇ ਮਾੜੀ ਜਾਣਕਾਰੀ ਦੇ ਸੁਮੇਲ ਨਾਲ ਜਵਾਬ ਦਿੰਦੇ ਹਨ, ਅਤੇ ਉਪਭੋਗਤਾਵਾਂ ਨੂੰ ਦੋਵਾਂ ਵਿੱਚ ਫਰਕ ਕਰਨ ਵਿੱਚ ਮੁਸ਼ਕਲ ਆਉਂਦੀ ਸੀ।

2024 ਵਿੱਚ ਕੀਤੇ ਗਏ ਅਧਿਐਨ ਵਿੱਚ ਚੈਟਜੀਪੀਟੀ ਹੈਲਥ ਵਰਗੀਆਂ ਨਵੀਆਂ ਪੇਸ਼ਕਸ਼ਾਂ ਸਮੇਤ ਨਵੀਨਤਮ ਚੈਟਬੋਟ ਸੰਸਕਰਣਾਂ ਦੀ ਵਰਤੋਂ ਨਹੀਂ ਕੀਤੀ ਗਈ।

ਫਾਲੋ-ਅੱਪ ਸਵਾਲ ਪੁੱਛਣ ਅਤੇ ਉਪਭੋਗਤਾਵਾਂ ਤੋਂ ਮੁੱਖ ਵੇਰਵਿਆਂ ਨੂੰ ਪ੍ਰਾਪਤ ਕਰਨ ਲਈ ਚੈਟਬੋਟਸ ਦੀ ਯੋਗਤਾ ਇੱਕ ਅਜਿਹਾ ਖੇਤਰ ਹੈ ਜਿੱਥੇ ਵਾਚਟਰ ਸੁਧਾਰ ਲਈ ਜਗ੍ਹਾ ਦੇਖਦਾ ਹੈ।

“ਮੈਨੂੰ ਲਗਦਾ ਹੈ ਕਿ ਜਦੋਂ ਇਹ ਸੱਚਮੁੱਚ ਠੰਡਾ ਹੋ ਜਾਂਦਾ ਹੈ, ਜਦੋਂ ਸਾਧਨ ਥੋੜੇ ਹੋਰ ਡਾਕਟਰ ਵਰਗੇ ਬਣ ਜਾਂਦੇ ਹਨ ਜਿਸ ਤਰ੍ਹਾਂ ਉਹ ਅੱਗੇ-ਪਿੱਛੇ ਜਾਂਦੇ ਹਨ,” ਵਾਚਟਰ ਨੇ ਕਿਹਾ।

ਫਿਲਹਾਲ, ਜੋ ਜਾਣਕਾਰੀ ਤੁਸੀਂ ਪ੍ਰਾਪਤ ਕਰ ਰਹੇ ਹੋ, ਉਸ ਬਾਰੇ ਵਧੇਰੇ ਆਤਮਵਿਸ਼ਵਾਸ ਮਹਿਸੂਸ ਕਰਨ ਦਾ ਇੱਕ ਤਰੀਕਾ ਹੈ ਕਈ ਚੈਟਬੋਟਸ ਵਿੱਚੋਂ ਇੱਕ ਨਾਲ ਸਲਾਹ-ਮਸ਼ਵਰਾ ਕਰਨਾ — ਦੂਜੇ ਡਾਕਟਰ ਤੋਂ ਦੂਜੀ ਰਾਏ ਲੈਣ ਦੇ ਸਮਾਨ।

“ਮੈਂ ਕਈ ਵਾਰ ਜਾਣਕਾਰੀ ਨੂੰ ਚੈਟਜੀਪੀਆਈਟੀ ਵਿੱਚ ਅਤੇ ਜਾਣਕਾਰੀ ਨੂੰ ਜੇਮਿਨੀ ਵਿੱਚ ਪਾਵਾਂਗਾ,” ਵਾਚਟਰ ਨੇ ਗੂਗਲ ਦੇ ਏਆਈ ਟੂਲਸ ਦਾ ਹਵਾਲਾ ਦਿੰਦੇ ਹੋਏ ਕਿਹਾ। “ਅਤੇ ਜਦੋਂ ਉਹ ਦੋਵੇਂ ਸਹਿਮਤ ਹੁੰਦੇ ਹਨ, ਮੈਂ ਥੋੜਾ ਹੋਰ ਸੁਰੱਖਿਅਤ ਮਹਿਸੂਸ ਕਰਦਾ ਹਾਂ ਕਿ ਇਹ ਸਹੀ ਜਵਾਬ ਹੈ.”

Leave a Reply

Your email address will not be published. Required fields are marked *