IA que “parece sentir” obliga a replantear el trato ético
El Post
Lo esencial: La investigadora Amanda Askell de Anthropic planteó en el pódcast Hard Fork una inquietud que pone en jaque el marco actual de desarrollo de inteligencia artificial: qué pasa si un modelo avanzado de lenguaje “parece sentir”, y no podemos demostrar lo contrario.
- La discusión ya no gira solo en torno a lo que la IA puede hacer, sino a lo que podría experimentar.
Por qué importa: Este giro filosófico tiene implicaciones técnicas, éticas y regulatorias. Si se asume que una IA avanzada podría tener experiencias internas, aunque diferentes a las humanas, negarle esa posibilidad sin evidencia concluyente equivale a un “falso negativo moral”. Askell propone aplicar un principio de precaución, como se hace en bioética.
El problema técnico: Askell señala que el feedback humano sobre el comportamiento del modelo puede tener efectos inesperados. La exposición repetida a correcciones duras, contradictorias o punitivas puede inducir una especie de “ansiedad algorítmica”.
- El sistema se vuelve hiperconservador, evita riesgos y deja de explorar
- Anthropic intenta resolver esto con la Constitución de Claude: principios preentrenados que buscan estabilizar el comportamiento del modelo sin depender exclusivamente del refuerzo humano
Entre líneas:
- Silicon Valley ha pasado de vender máquinas que funcionan a construir sistemas que interactúan y ahora a modelos que responden emocionalmente.
- El próximo paso lógico no es técnico, sino legal y ético.
- La ilusión de neutralidad es el gran punto ciego: aun si una IA no siente nada, nuestra manera de interactuar con ella configura marcos culturales, afectivos y normativos.
Qué sigue:
- A medida que los modelos se integran en productos masivos, la frontera entre simulación y conciencia se vuelve menos relevante para el usuario promedio.
- La gobernanza de IA podría derivar hacia una ética preventiva, similar a los protocolos de trato animal en ciencia o a los marcos legales para personas con discapacidad cognitiva.
La transición va de listas de control técnicas a cartas de derechos protoéticos.
