top of page

OpenAI activa la predicción de edad en ChatGPT: cómo funciona, qué busca y qué riesgos abre

  • Foto del escritor: Raymond Demorizi
    Raymond Demorizi
  • hace 1 día
  • 4 Min. de lectura

Fecha: 2026-01-22

OpenAI activa la predicción de edad en ChatGPT: cómo funciona, qué busca y qué riesgos abre

Publicado el22 enero, 2026

La idea se parece a la de un portero en la entrada de un local que no solo mira el DNI: observa el comportamiento de quien quiere entrar, la hora a la que llega, si viene con prisas, si parece habitual. El problema es que, cuando ese portero es un modelo automatizado, puede equivocarse con quien tiene cara de joven, con quien comparte el móvil con su familia o con quien trabaja de noche. Y esas equivocaciones no son triviales si derivan en restricciones o en pasos extra para seguir usando el producto.

Según la explicación atribuida al anuncio de la compañía y recogida por medios como Reuters y Engadget, el modelo combina señalesconductualesya nivel de cuenta. En concreto, se menciona la antigüedad de la cuenta, los horarios típicos de actividad, los patrones de uso a lo largo del tiempo y la edad declarada por el propio usuario. Traducido a lenguaje cotidiano: el sistema intenta encajar piezas de un puzle con lo que haces y cuándo lo haces, no solo con lo que dices.

Esta aproximación tiene una ventaja práctica: no obliga a pedir documentos de entrada a todo el mundo. También tiene una debilidad importante: muchas de esas señales son ambiguas. Una cuenta recién creada puede pertenecer a un adulto que se abreChatGPTpor primera vez; la actividad nocturna puede ser de un estudiante, de un sanitario, de alguien con insomnio o de quien vive en otro huso horario y viaja. Si el modelo “aprende” correlaciones demasiado rígidas, el riesgo de etiquetar mal a personas reales crece.

OpenAI plantea un mecanismo de corrección: si alguien es caracterizado erróneamente como menor, deberá enviar un selfie para rectificar a través dePersona, una plataforma deverificación de edad. En la práctica, esto introduce un “plan B” que no es inocuo. Pedir una selfie puede resultar razonable para algunos usuarios, pero también supone una fricción clara y una decisión de privacidad: no es lo mismo usar un chatbot que entregar una imagen facial a un proveedor externo para recuperar acceso o funcionalidades.

Aquí conviene imaginar un control de acceso a un edificio: si el lector de tarjeta falla, te piden pasar por recepción y mostrar un documento. Funciona, sí, pero el coste lo asume quien fue bloqueado por error. En servicios masivos, incluso un porcentaje pequeño de falsos positivos puede traducirse en muchas personas afectadas. También aparece la pregunta incómoda: ¿qué pasa con quien no quiere o no puede enviar un selfie? En ese punto, la corrección deja de ser un “arreglo” universal y pasa a ser una condición.

La pieza clave para entender el movimiento es estratégica. OpenAI estaría preparando un“adult mode”que permitiría crear y consumir contenidoNSFW(no apto para menores). Para habilitar algo así, la empresa necesita una forma de separar usuarios adultos de menores sin depender solo de la declaración voluntaria. Dicho de forma simple: si vas a abrir una zona “solo para mayores”, necesitas un método para comprobar la edad, aunque sea probabilístico.

Este enfoque refleja una tensión habitual en tecnología: lanzar funciones nuevas y luego construir barreras de seguridad alrededor. En este caso, la barrera intenta llegar antes del contenido para adultos, como un vallado instalado antes de abrir una piscina. El vallado reduce algunos riesgos, pero no elimina los saltos: siempre habrá quien busque colarse, y el debate se desplaza hacia cuántas medidas son suficientes y a qué coste.

La predicción de edad basada en patrones tiene un límite evidente: si el usuario quiere engañarla, puede ajustar su conducta como quien cambia el ritmo al caminar para despistar a una cámara. Y si el sistema se endurece para resistir trampas, aumenta el riesgo de penalizar a usuarios legítimos que no encajan en el molde. Es el clásico dilema del detector de humo: si lo haces demasiado sensible, pita cuando tuestas pan; si lo haces poco sensible, puede no avisar cuando importa.

Hay dos planos que merecen atención. El primero es laprivacidad: estimar edad con señales de actividad implica observar patrones temporales y de uso. Incluso si esos datos ya existen por motivos operativos, su utilización para clasificar a personas cambia la naturaleza del tratamiento. El segundo plano es el de los errores con impacto: no todos los fallos son iguales. Etiquetar a un adulto como menor puede limitar funciones y exigir selfie; etiquetar a un menor como adulto puede abrir puertas a contenido que precisamente se quería restringir.

Lo práctico es observar dos cosas: si la experiencia cambia sin una explicación clara y si el canal de corrección es proporcional al problema. Un error de clasificación no debería convertirse en un callejón sin salida. Y una verificación por selfie, si es la vía principal para corregir, tendrá que ir acompañada de garantías comprensibles sobre retención de datos, seguridad y alternativas razonables.

Conclusión

Este artículo presenta información relevante sobre OpenAI activa la predicción de edad en ChatGPT: cómo funciona, qué busca y qué r. Para más detalles, consulte la fuente original.

📌 Fuente: Wwwhatsnew.com

Comentarios

Obtuvo 0 de 5 estrellas.
Aún no hay calificaciones

Agrega una calificación
bottom of page