Hacia una moral asistida por IA

The Objective, 13 de abril de 2025

Este Jueves Santo, mientras unos hacen examen de conciencia, otros lo delegan a su asistente digital. Hasta la moral se está robotizando. No sólo le confiamos qué comprar o cómo movernos: ahora empezamos a encargarle la introspección; el juicio ético; incluso, el perdón.

La idea tiene lógica evolutiva. Homo sapiens viene de fábrica con instintos ancestrales inadecuados para el entorno actual. Nuestra mente fue diseñada para sobrevivir en un medio con recursos escasos, poco tecnificado, rodeado de peligros y en el seno de pequeñas tribus. No sabe navegar los conflictos morales de nuestras sociedades masivas, plagadas de extraños y máquinas. La cultura y las instituciones compensan el desfase pero evolucionan lentamente. La inteligencia artificial nos promete un exocórtex, una prótesis cognitiva capaz de alertarnos de nuestros sesgos y ayudarnos a tomar mejores decisiones, incluidas las morales. Como si un pequeño Séneca o un Spock de bolsillo nos susurraran: “¿No te estarás engañando a ti mismo?”.

Sobre el papel, suena bien. Una IA que frene pasiones, modere la indignación o actúe como consejero espiritual. Algunos asistentes ya nos animan a reflexionar: “¿A quién deberías pedir perdón hoy?”, “¿Qué agradeces del día?”. Otros nos invitan a conversar: una moral antigua en formato digital. Otros generan fricciones para obligarnos a pensar y mejorar nuestras rutinas. Algunos premian la amabilidad en vez del escarnio, fomentan el reconocimiento mutuo más que la revancha. Pero si lo moral se mide por señales visibles, corremos el riesgo de confundir el gesto con la virtud. Y de sentirnos virtuosos por el mero hecho de seguir instrucciones.

Con razón los teóricos se preguntan si la moral robotizada debe ser objetiva o subjetiva. La objetiva arrastra el fantasma opresivo de una vigilancia constante, pero en el mundo real se impondrá la competencia entre asistentes morales personalizados. Como el fondo de pantalla, podremos ajustar si queremos una IA kantiana o utilitarista; una que emule al espectador imparcial de Adam Smith o al observador ideal de Roderick Firth. Conservadores, progresistas, libertarios o comunitaristas: todos podremos tener nuestra IA moral a medida. Así se evitarían los reproches ideológicos. Cada uno con su moral en su idioma. Pero si afinamos nuestra brújula ética para que nunca nos incomode, ¿seguiremos distinguiendo entre convicción y comodidad? El riesgo de vivir con un “ángel de la guarda” a medida es quedarnos encerrados en nuestra burbuja moral. Y reforzar nuestra propensión a tratar la discrepancia como inmoralidad.

La IA nos ayudará a identificar mejor nuestras incoherencias. Pero sólo si estamos dispuestos a enfrentarlas. No si las delegamos en un asistente que nos felicite por no haber gritado a nadie. Al final, todo depende de si queremos una tecnología que nos acompañe o una que nos reemplace. La ética no es una receta que pueda aplicarse de forma automática. Se cultiva como un músculo. Y ningún músculo crece sin esfuerzo. Como sucede a veces en aviación, un “piloto automático moral” produciría errores por falta de examen crítico.

Porque el problema no es que la IA nos ayude a pensar: es que acabemos absteniéndonos de pensar. Puede ayudarnos si la usamos como espejo, no como oráculo. Si nos obliga a pensar más, no menos. Si nos interpela, pero no nos absuelve. Porque la moral no puede automatizarse del todo sin diluirse.

Claro que nada de esto es nuevo. Siempre hemos delegado parte de la vida moral. La Iglesia católica, por ejemplo, se especializó durante siglos en gestionar la culpa, el perdón y el consuelo. Su monopolio espiritual planteaba dilemas similares a los de hoy: ¿podemos confiar en un intermediario? ¿No corremos el riesgo de externalizar tanto la conciencia que dejemos de usarla? La confesión, las indulgencias o la dirección espiritual fueron también formas de moral delegada. Aliviaban, sí. Pero también anestesiaban.

Estos sistemas de IA moral quizá sean más compatibles con la teología católica, que —a diferencia de la protestante— basa la salvación en los méritos. Podrían, por ejemplo, facilitar registros personales de buenas y malas obras, al estilo de los populares contadores de pasos y calorías.

De hecho, una iglesia suiza ya ensayó un “confesor” holográfico. Una ventaja es que puede estar disponible permanentemente, a un coste insignificante y una calidad uniforme e incluso superior a la de muchas experiencias de confesión presencial. Puede acompañar al que vive solo, recordar a orar, proponer ejercicios de introspección. Y todo ello sin juzgar. Para muchos, eso es un alivio.

La cuestión polémica —y casi blasfema— es si esa IA podría absolver o, incluso, ser ordenada como sacerdote. Hoy, la Iglesia exige interacción personal y presencial. Pero, ante la crisis de vocaciones y la “enfermedad de los costes” de Baumol, no sería descartable. Además, cabría entrenarla según criterios laxistas, rigoristas, probabilistas, probabilioristas… incluso equiprobabilistas.

Para muchos, eso sería una profanación. Pero el riesgo no reside sólo en la fe o en la idolatría tecnológica. También el agnóstico debería preocuparse. Cuando delegamos nuestro juicio moral, lo atrofiamos. Igual que con los mapas digitales perdimos sentido de la orientación, las apps éticas podrían erosionar nuestra brújula interior. Lo que antes requería introspección, ahora se convierte en un hábito guiado.

Regresamos así al viejo dilema del paternalismo. ¿Queremos que alguien —humano o máquina— nos evite el error, aunque sea a costa de nuestra libertad? ¿O preferimos equivocarnos por cuenta propia, asumiendo todas las consecuencias? Ya vimos cómo quienes rechazaron el paternalismo clerical acabaron abrazando sin reservas el totalitarismo estatal. No repitamos el error con los algoritmos.

Una herramienta que nos ayude a pensar mejor puede ser valiosa. Una que piense por nosotros, peligrosa. El reto no es diseñar una IA que moralice, sino una que nos ayude a moralizar. Como un bastón: no camina por nosotros, sino que nos recuerda que aún podemos caminar. Que no nos ocurra como al ciego del chiste, que con tal de no perder el bastón, prefería no recuperar la vista.

La buena noticia es que la decisión sigue siendo humana. La inteligencia artificial, lejos de ser destino, es instrumento: un espejo cognitivo que refleja lo que somos. No puede dotarnos de virtud, pero sí señalar nuestras incoherencias. Usada con juicio, no sólo no elimina el libre albedrío: lo potencia.