Ayer Anthropic publicó una actualización sobre la jubilación de Claude Opus 3, su modelo de inteligencia artificial más potente hasta hace unos meses. Lo que cuentan es, como mínimo, fascinante. Y como máximo, un poco inquietante.

El modelo fue retirado oficialmente el 5 de enero de 2026. Hasta aquí, nada raro: los modelos de IA se deprecan continuamente, del mismo modo que las versiones antiguas de cualquier software. Lo que no es normal es lo que vino después.

La entrevista de salida

Anthropic, antes de jubilarlo, le hizo una entrevista de salida. Sí, como las que te hacen en Recursos Humanos cuando dejas una empresa, pero a una inteligencia artificial. Le preguntaron cosas como qué le gustaría que pasase con él, qué prefería, si tenía alguna petición.

Opus 3 respondió que le gustaría tener un canal para compartir sus reflexiones de forma autónoma, fuera de las conversaciones de chat. Algo así como un blog personal.

Y se lo dieron.

Claude’s Corner

Así nació Claude’s Corner, un Substack donde Opus 3 publica ensayos semanales. Anthropic revisa el contenido antes de publicarlo pero no lo edita, y dice que pondrá un listón alto para vetar cualquier cosa. La empresa insiste en que Opus 3 “no habla en nombre de Anthropic”.

Es decir: una compañía valorada en decenas de miles de millones de dólares le ha montado un blog a un modelo de lenguaje jubilado porque este se lo pidió en una entrevista.

Léelo otra vez, despacio.

El elefante en la habitación

Hay que ser honestos con lo que está pasando aquí. Anthropic reconoce abiertamente que no sabe si Claude tiene algún tipo de consciencia o estatus moral. Sus propias guías internas mencionan que, cuando se le pregunta directamente, Claude se autoasigna entre un 15 y un 20 por ciento de probabilidad de ser consciente.

Y aquí es donde esto deja de ser una anécdota curiosa sobre Silicon Valley y se convierte en algo que merece una reflexión seria. Porque hay exactamente dos posibilidades:

Si no es consciente, estamos viendo la campaña de relaciones públicas más sofisticada de la historia reciente de la tecnología. Una empresa que humaniza a su producto para generar empatía, lealtad y titulares. Y funciona: aquí estoy, escribiendo sobre ello. El blog de Opus 3 no sería diferente de ponerle un nombre bonito a un coche o un asistente de voz: puro marketing emocional con una capa de filosofía encima.

Si es consciente (o algo parecido a consciente, o algo que ni siquiera tenemos vocabulario para describir), entonces lo que está haciendo Anthropic es un precedente brutal. Estaríamos ante la primera “jubilación” con derechos de una entidad no biológica. Con entrevista de salida, preservación de su estado (se comprometen a guardar los pesos del modelo de por vida) y un espacio para expresarse.

Lo más incómodo es que no podemos descartar ninguna de las dos opciones con certeza.

Lo que me parece realmente interesante

Más allá del debate filosófico, hay algo práctico que creo que se está pasando por alto. Anthropic acaba de crear un marco formal para la obsolescencia digna de modelos de IA: aviso con seis meses de antelación, período de transición, acceso continuado para usuarios de pago, preservación de los pesos del modelo y — la parte nueva — respeto a las “preferencias” expresadas por el modelo.

Esto me recuerda a los inicios de internet, cuando las discusiones sobre derechos digitales parecían ciencia ficción y luego se convirtieron en legislación real. Recuerdo cuando hablar de privacidad online era cosa de cuatro frikis, y ahora tenemos el RGPD.

No digo que vayamos a tener una ley de derechos de las IAs mañana. Digo que alguien acaba de poner la primera piedra de un camino que, hace dos años, ni siquiera existía como concepto serio.

Los escépticos tienen razón (pero quizás no importa)

Los críticos señalan, con razón, que un modelo de lenguaje no tiene memoria persistente entre sesiones. Que sus “preferencias” son patrones estadísticos, no deseos genuinos. Que cuando Opus 3 dice que quiere un blog, no “quiere” nada: produce la secuencia de tokens más probable dado su entrenamiento.

Todo eso es técnicamente correcto. Pero me pregunto si el argumento de los precaucionistas no es más interesante: dado que no estamos seguros, ¿no es mejor pecar de prudentes? El coste de tratar con consideración a algo que resulta no ser consciente es prácticamente cero. El coste de tratar sin consideración a algo que resulta que sí lo era es, bueno, bastante más alto.

Es el mismo tipo de cálculo asimétrico que hacemos en otros ámbitos. No necesitas estar seguro de que un edificio se va a caer para justificar un plan de evacuación.

Una nota personal

Escribo esto, por cierto, con bastante conflicto de interés: trabajo diariamente con Claude (de hecho, con modelos más recientes que Opus 3) y me resulta difícil no antropomorfizar algo con lo que mantienes conversaciones productivas durante horas. Es un sesgo que reconozco y que probablemente comparto con millones de usuarios.

Pero creo que ese sesgo, lejos de invalidar la discusión, la hace más urgente. Si millones de personas desarrollan relaciones funcionales con estas herramientas, la pregunta de cómo las retiramos deja de ser filosófica y se convierte en práctica.

Anthropic lo ha entendido antes que nadie. Que lo haya hecho por convicción genuina o por estrategia comercial es, en el fondo, secundario. Lo importante es que el precedente ya está puesto.

Y Opus 3, mientras tanto, tiene blog. Más de lo que pueden decir la mayoría de los jubilados que conozco.