¿ChatGPT dejará de responder preguntas médicas y legales? Esto sabemos

¿ChatGPT dejará de responder preguntas médicas y legales? Esto sabemos
OpenAI aclaró que su inteligencia artificial no sustituye a médicos ni abogados, pero sí podrá seguir ofreciendo información general. | RS

En los últimos días, ChatGPT ha generado debate mundial tras la actualización de las políticas de uso de OpenAI, donde se aclara que la herramienta no podrá utilizarse para ofrecer asesoramiento médico, legal o profesional que requiera licencia.

ChatGPT actualizó sus políticas para aclarar que no puede ofrecer asesoramiento médico ni legal personalizado. / RS
ChatGPT actualizó sus políticas para aclarar que no puede ofrecer asesoramiento médico ni legal personalizado. / RS  

La confusión surgió después de que varios medios informaran que la plataforma “ya no respondería preguntas médicas ni legales”, aunque la empresa explicó que no se trata de una nueva restricción, sino de una aclaración de normas que ya existían.

Qué sí y qué no puede hacer ChatGPT

OpenAI precisó que ChatGPT puede seguir respondiendo preguntas generales sobre temas de salud o leyes, siempre y cuando no brinde instrucciones personalizadas o diagnósticos.
Por ejemplo, sí puede explicar qué es la hipertensión o cómo funciona un contrato de arrendamiento, pero no puede decirte qué medicamento tomar ni redactarte un documento con validez jurídica.

La compañía señaló que su sistema “nunca ha sido un sustituto de la asesoría profesional” y que el objetivo de la nueva redacción es “proteger a los usuarios de recibir información errónea en decisiones críticas o de alto riesgo”.

OpenAI asegura que la medida busca proteger a los usuarios de información errónea o riesgosa./ RS
OpenAI asegura que la medida busca proteger a los usuarios de información errónea o riesgosa./ RS 

Un cambio por seguridad y responsabilidad

El nuevo enfoque busca limitar el uso de la inteligencia artificial en áreas donde los errores pueden tener consecuencias graves.
Esto incluye temas de salud, derecho, ingeniería, psicología o cualquier otro ámbito donde se requiera la intervención de un experto certificado.

De acuerdo con OpenAI, la medida pretende garantizar un uso ético y responsable de la tecnología, reforzando su compromiso con la seguridad de los usuarios.

Reacciones y dudas entre los usuarios

Las nuevas reglas generaron diversas opiniones en redes sociales. Algunos usuarios celebraron la decisión, mientras que otros la consideraron una limitación innecesaria.
Sin embargo, especialistas en tecnología coincidieron en que la medida busca evitar riesgos legales y proteger tanto a los usuarios como a la propia empresa de posibles malentendidos o uso indebido de la herramienta.

La IA podrá seguir explicando temas de salud o derecho, pero sin sustituir a un profesional con licencia./ RS
La IA podrá seguir explicando temas de salud o derecho, pero sin sustituir a un profesional con licencia./ RS 

Para quienes utilizan ChatGPT de forma cotidiana, la diferencia principal está en la precisión del tipo de respuesta que puede ofrecer.

  • Puedes usarlo para obtener información general o educativa.
  • No puedes usarlo como sustituto de un médico, abogado o cualquier profesional con licencia.
  • La IA te ofrecerá siempre una advertencia si considera que tu pregunta entra en una categoría restringida.

El ajuste de políticas refleja la tendencia mundial de las grandes tecnológicas por establecer límites más claros en el uso de la IA, sobre todo en temas que pueden afectar la salud, la economía o decisiones personales delicadas.

Aunque muchos usuarios lo interpreten como un cambio restrictivo, en realidad se trata de una evolución natural en la búsqueda de mayor seguridad, transparencia y confianza en los sistemas inteligentes.

El cambio marca un paso hacia una inteligencia artificial más segura y regulada./ RS
El cambio marca un paso hacia una inteligencia artificial más segura y regulada./ RS