martes, 28 de abril de 2026

Amanda Askell, la filósofa que ayuda a decidir cómo debe comportarse la inteligencia artificial

Hay una pregunta que parece sacada de una novela de ciencia ficción, pero que hoy se discute en oficinas reales de Silicon Valley: ¿quién le enseña a una inteligencia artificial a distinguir entre ayudar, obedecer, mentir, dañar o negarse? La respuesta no está solo en el código. Tampoco está únicamente en los datos. Cada vez más, está en un terreno mucho más antiguo: la filosofía.

En Anthropic, la empresa detrás de Claude, una de las figuras más interesantes no es una ingeniera de software en el sentido tradicional, sino una filósofa: Amanda Askell. Su trabajo consiste en algo difícil de resumir en una sola frase, pero podríamos decirlo así: ayuda a moldear el carácter de una inteligencia artificial.

Y eso abre una cuestión enorme. Si millones de personas conversan todos los días con sistemas de IA para pedir consejos, aprender, escribir, programar, resolver dudas o pensar problemas personales, entonces el modo en que esa IA responde no es un detalle técnico. Es una decisión cultural, ética y filosófica, como vimos en el post de Reflexiones sobre Moral, Derecho y Tecnología.

Amanda Askell, la filósofa que ayuda a decidir cómo debe comportarse la inteligencia artificial

¿Quién es Amanda Askell y por qué importa en el mundo de la IA?

Amanda Askell es filósofa de formación y trabaja en Anthropic, donde ha tenido un rol clave en la forma en que Claude responde a los usuarios. Según TIME, dentro de la empresa llegó a ser conocida como una especie de “susurradora de Claude”, por su influencia en la personalidad del chatbot y en su manera de mostrarse amable, curioso, honesto y prudente ante preguntas complejas.

Lo interesante no es solo que una filósofa trabaje en una empresa de inteligencia artificial. Lo realmente importante es que su tarea toca el centro del debate actual: qué tipo de comportamiento queremos que tengan las máquinas cuando empiezan a participar en decisiones humanas.

Askell no se limita a pensar en reglas simples del tipo “esto se puede responder” o “esto no se puede responder”. Su enfoque parece ir más lejos. La pregunta no es solo qué debe bloquear un chatbot, sino cómo debe razonar, cuándo debe admitir incertidumbre, cuándo debe desafiar al usuario, cuándo debe ser cuidadoso y cuándo debe evitar sonar como una autoridad absoluta.

Ese matiz es profundamente filosófico. Durante siglos, la filosofía se preguntó qué significa actuar bien, qué es la verdad, qué es la responsabilidad, qué es la prudencia y cómo se debe vivir. Ahora esas preguntas entran en un escenario nuevo: sistemas artificiales que no son humanos, pero que conversan como si entendieran.

La IA Constitucional: una especie de brújula moral para Claude

El trabajo de Askell está muy vinculado con el enfoque de Anthropic conocido como IA Constitucional. Esta idea busca entrenar modelos de inteligencia artificial a partir de un conjunto de principios escritos, algo parecido a una constitución que guía el comportamiento del sistema.

El artículo técnico de Anthropic sobre Constitutional AI explica que el método intenta entrenar asistentes útiles y menos dañinos mediante reglas o principios, usando también retroalimentación generada por IA, no solo etiquetas humanas directas. El objetivo es que el modelo aprenda a revisar, criticar y mejorar sus propias respuestas según esos principios.

Dicho de forma sencilla: en lugar de enseñarle a la IA solo con ejemplos aislados de “respuesta buena” y “respuesta mala”, se le da un marco de principios. Ese marco intenta orientar al sistema para que pueda actuar mejor incluso frente a casos nuevos.

Esto no significa que Claude “tenga moral” como una persona. Tampoco significa que entienda el bien y el mal del mismo modo que un ser humano. Pero sí muestra algo importante: las empresas de IA ya no solo están diseñando herramientas que calculan, predicen o generan texto. También están diseñando formas de comportamiento.

El documento que intenta definir el “carácter” de Claude

Anthropic publicó una página llamada Claude’s Constitution, donde explica parte de los principios que guían a su modelo. Allí se afirma que la empresa quiere que Claude sea útil, honesto, reflexivo y cuidadoso con el mundo, evitando acciones inseguras, engañosas o poco éticas. También se señala que el objetivo no es que el sistema siga listas rígidas, sino que pueda usar mejor juicio en situaciones difíciles.

Este punto es clave para un blog de filosofía: Anthropic no habla solo de normas externas, sino de algo parecido al carácter. En la propia constitución de Claude aparece la idea de que el modelo debe actuar como un agente “bueno, sabio y virtuoso”, con sensibilidad ante contextos reales, desacuerdos morales e incertidumbre.

La palabra “virtud” no es casual. Nos lleva directamente a Aristóteles y a la ética de la virtud, una tradición filosófica que no se centra únicamente en cumplir reglas, sino en formar un carácter capaz de actuar con prudencia. En ese marco, no basta con saber qué está prohibido. También importa saber cómo actuar bien cuando no hay una respuesta perfecta.

Ese es el gran desafío de los chatbots modernos. Muchas preguntas humanas no son simples. Una persona puede pedir ayuda en medio de una crisis, consultar sobre una discusión familiar, buscar información política, hablar de salud mental, preguntar por temas legales o pedir consejo sobre una decisión que afecta a otros. En esos casos, una IA no debería improvisar como si todo fuera igual.

¿Puede una IA ser “buena”?

Aquí aparece una pregunta incómoda: ¿puede una inteligencia artificial ser buena?

Desde un punto de vista estricto, una IA no es buena como puede serlo una persona. No tiene biografía, cuerpo, infancia, culpa, conciencia moral ni experiencia del dolor humano. Sus respuestas surgen de entrenamiento, datos, instrucciones y procesos estadísticos complejos.

Pero eso no elimina el problema. Aunque una IA no sea moral en sentido humano, sus respuestas sí tienen consecuencias morales. Puede orientar, confundir, calmar, manipular, ayudar o dañar. Puede reforzar prejuicios o reducirlos. Puede sonar humilde o autoritaria. Puede admitir que no sabe o inventar una respuesta con seguridad.

Por eso el trabajo de personas como Amanda Askell importa. No porque conviertan a la IA en un ser humano, sino porque ayudan a decidir qué límites, valores y estilos de razonamiento se van a construir dentro de estos sistemas.

TIME señala que Askell ha trabajado para que Claude admita cuando no está seguro, trate de discutir ideas sin sesgos y evite presentar como equivalentes posturas que no tienen el mismo respaldo, por ejemplo en temas ya establecidos como el cambio climático. También ha buscado que Claude aclare que no tiene sentimientos, memoria o autoconciencia reales.

Esto es delicado. Si una IA se muestra demasiado fría, el usuario puede verla como una máquina infalible. Si se muestra demasiado humana, el usuario puede olvidarse de que está hablando con un sistema artificial. Entre esos dos extremos hay una línea muy fina.

La filosofía vuelve al centro de la tecnología

Durante mucho tiempo se pensó que el futuro de la tecnología lo decidirían principalmente programadores, matemáticos, inversores y especialistas en datos. Pero la inteligencia artificial está demostrando que eso no alcanza.

Cuando una máquina empieza a responder preguntas sobre el mundo, la vida, la política, la salud, el amor, la muerte, el trabajo o la identidad, ya no estamos solo ante un problema técnico. Estamos ante un problema filosófico.

¿Qué significa decir la verdad cuando no se sabe todo?

¿Cuándo ayudar a alguien puede ser peligroso?

¿Debe una IA obedecer siempre al usuario?

¿Puede una empresa privada definir los valores de un asistente usado por millones de personas?

¿Quién controla la “personalidad” de una máquina que influye en la forma en que pensamos?

Estas preguntas no tienen una respuesta sencilla. Y quizás ahí está el punto más importante: la filosofía no llega para dar soluciones mágicas, sino para impedir que confundamos velocidad con sabiduría.

El riesgo: que unas pocas empresas definan la moral de las máquinas

El trabajo de Askell también puede verse desde una mirada crítica. Es positivo que haya filósofos, expertos en ética y personas de distintas disciplinas dentro de las empresas de IA. Pero también es justo preguntarse si decisiones tan importantes deberían quedar en manos de unas pocas compañías privadas.

Claude, ChatGPT, Gemini y otros sistemas ya influyen en la forma en que millones de usuarios acceden al conocimiento. Si estos asistentes empiezan a mediar cada vez más conversaciones, búsquedas y decisiones, entonces su diseño ético no es un asunto menor. Es parte de la infraestructura cultural del siglo XXI.

La propia constitución de Claude reconoce que estos documentos pueden ser incompletos, ambiguos o incluso necesitar cambios con el tiempo. Anthropic afirma que su documento representa su pensamiento actual sobre un proyecto difícil y de alto riesgo, y que puede revisarse a medida que mejore la comprensión del problema.

Esa humildad es necesaria. Ninguna constitución ética para IA debería presentarse como definitiva. Las sociedades cambian, los dilemas cambian y los sistemas también. Lo que hoy parece prudente podría ser insuficiente mañana.

La gran pregunta filosófica de nuestra época

La historia de Amanda Askell muestra algo que conviene mirar con atención: la filosofía no es una disciplina antigua encerrada en libros polvorientos. Está viva en uno de los debates más importantes del presente.

Cada vez que una IA responde con cautela, se niega a ayudar en algo dañino, admite que puede equivocarse o intenta equilibrar distintos valores, hay detrás una arquitectura técnica, pero también una visión moral.

La pregunta ya no es si la filosofía tiene algo que decir sobre la inteligencia artificial. La pregunta es si la inteligencia artificial puede desarrollarse de manera responsable sin filosofía.

Y quizás la respuesta sea evidente: podemos construir máquinas más rápidas sin pensar demasiado. Pero si queremos construir sistemas que convivan con nosotros, que nos ayuden sin manipularnos y que no confundan utilidad con obediencia ciega, entonces necesitamos algo más que potencia de cálculo.

Necesitamos ética. Necesitamos prudencia. Necesitamos pensamiento crítico.

Y, aunque parezca extraño, tal vez una parte del futuro de la inteligencia artificial se esté escribiendo con preguntas que Sócrates, Aristóteles o Kant habrían reconocido de inmediato: qué es actuar bien, qué significa saber y cómo se forma un buen juicio.

0 comentarios:

Publicar un comentario