Cuidado con lo que le dices a ChatGPT: OpenAI podría llamar a la policía

Cuidado con lo que le dices a ChatGPT: OpenAI podría llamar a la policía

OpenAI ha admitido que podría compartir tus conversaciones de ChatGPT con la policía. La compañía cambió sus políticas para abordar ciertos usos de su chatbot, por lo que no dudará en acudir a las autoridades si encuentra algo malo. La medida ha generado molestia entre los usuarios, quienes afirman que la IA podría convertirse en una herramienta de vigilancia masiva.

De acuerdo con Futurism, una publicación en el blog de OpenAI está causando polémica entre los usuarios y expertos en privacidad. Si bien el artículo se enfoca en la estrategia de la empresa para abordar los casos de salud mental, existe una sección que habla sobre el riesgo de daño físico a otras personas. OpenAI menciona que tiene un equipo de personas que revisa las conversaciones con ChatGPT y puede tomar medidas severas.

“Cuando detectamos usuarios que están planeando dañar a otros, enrutamos sus conversaciones a flujos especializados donde son revisadas por un equipo reducido entrenado en nuestras políticas de uso, cuyos miembros están autorizados para tomar medidas que incluyen la prohibición de cuentas. Si los revisores humanos determinan que un caso implica una amenaza inminente de daño grave hacia terceros, podríamos derivarlo a las autoridades policiales”.

Aunque OpenAI no menciona los mecanismos que utiliza para determinar que una persona busca dañar a otra, existe un apartado en su política de privacidad en donde menciona que puede compartir tu información con la policía o cualquier agencia del gobierno.

“Podemos compartir tu información personal con autoridades gubernamentales u otros terceros si es requerido por la ley o en buena fe… para detectar o prevenir fraude u otra actividad ilegal; para proteger la seguridad, integridad y confianza de nuestros productos, empleados, usuarios o el público, o para proteger contra responsabilidad legal”.

ChatGPT ofrecerá acceso gratis a GPT-5

OpenAI podría espiarte cuando hablas con ChatGPT

A primera vista, esto no suena descabellado si consideramos que la mayoría de aplicaciones tienen políticas similares cuando existe una orden judicial. El problema con OpenAI es que puede hacerlo sin orden expresa, siempre y cuando considere que dicha acción es necesaria para cumplir una acción legal o para proteger intereses legítimos.

Algunos expertos ya señalaron los riesgos de involucrar a la policía en las conversaciones con ChatGPT. OpenAI no reveló cómo determinará la ubicación exacta del usuario o las acciones que tomará en caso de suplantación de identidad. ¿Qué pasaría si alguien accede con tu cuenta para abusar del sistema y enviar a las autoridades a tu casa?

Otros van más lejos y señalan los nexos de OpenAI con el gobierno de Estados Unidos. “Hace 12 años, Edward Snowden reveló que el gobierno estadounidense no solo espiaba nuestro tráfico de internet, sino que contaba con la cooperación activa de grandes empresas tecnológicas”, dijo Charles McGuinness, un desarrollador de IA. “No es paranoico pensar que ChatGPT esté reenviando contenido ‘interesante’ al gobierno estadounidense”.

Los cambios en las políticas llegan después de que una pareja acusara a ChatGPT de contribuir a la muerte de su hijo. Adam y María Raine presentaron una demanda contra OpenAI por homicidio culposo. Según los padres, la IA no disuadió a su hijo de cometer suicidio, sino que lo alentó.


Fuente original

Comments

No comments yet. Why don’t you start the discussion?

Deja un comentario