Newsletter Newsletters Events Eventos Podcasts Videos Africanews
Loader
Encuéntranos
Publicidad

El inventor de la cápsula suicida: "La IA debe decidir quién muere"

El inventor de la cápsula suicida dice que la IA podría decidir pronto el acceso a la muerte asistida
El inventor de la cápsula suicida dice que la IA podría decidir pronto el acceso a la muerte asistida Derechos de autor  AP
Derechos de autor AP
Por Theo Farrant
Publicado
Compartir Comentarios
Compartir Close Button

El inventor de la cápsula Sarco afirma que un 'software' de inteligencia artificial podría sustituir algún día a los psiquiatras a la hora de evaluar la capacidad mental de quienes solicitan la muerte asistida.

Philip Nitschke lleva más de tres décadas defendiendo que el derecho a morir debe pertenecer a las personas, no a los médicos. Ahora, el activista australiano a favor de la eutanasia que está detrás de la polémica cápsula Sarco (una cápsula impresa en 3D diseñada para permitir a una persona poner fin a su propia vida utilizando gas nitrógeno) afirma que cree que la inteligencia artificial debería sustituir a los psiquiatras a la hora de decidir quién tiene la "capacidad mental" para poner fin a su vida.

"No creemos que los médicos deban ir por ahí dándote permiso o no para morir", defiende Nitschke ante 'Euronews Next'. "Debería ser tu decisión si estás en tu sano juicio". La propuesta ha reavivado el debate sobre la muerte asistida y sobre si se debe confiar alguna vez a la IA decisiones tan importantes como la vida y la muerte.

"El suicidio es un derecho humano"

Nitschke, médico y fundador de Exit International, organización sin ánimo de lucro dedicada a la eutanasia, empezó a interesarse por la muerte asistida a mediados de los noventa, cuando el Territorio del Norte de Australia legalizó brevemente la eutanasia voluntaria para enfermos terminales. "Me involucré hace unos 30 años, cuando se promulgó la primera ley en el mundo", explica. "Me pareció una buena idea".

Hizo historia en 1996 como el primer médico en administrar legalmente una inyección letal voluntaria, utilizando una máquina de construcción propia que permitía a Bob Dent, un hombre moribundo de cáncer de próstata, activar los fármacos pulsando un botón en un ordenador portátil junto a su cama.

Philip Nitschke, fundador y director del grupo proeutanasia Exit International, asiste a una rueda de prensa en Basilea, Suiza, el 9 de mayo de 2018
Philip Nitschke, fundador y director del grupo proeutanasia Exit International, asiste a una rueda de prensa en Basilea, Suiza, el 9 de mayo de 2018 AP

Sin embargo, la ley duró poco y fue derogada tras la oposición de organismos médicos y grupos religiosos. La reacción, dice Nitschke, fue formativa para él. "Se me ocurrió que si estaba enfermo -o para el caso, incluso si no estaba enfermo- yo debería ser quien controlara el momento y la forma de mi muerte", dice. "No veía por qué había que restringir eso y, desde luego, por qué tenía que ser ilegal recibir ayuda, dado que el suicidio en sí no es un delito".

Con el tiempo, su postura se endureció. Lo que empezó como un apoyo a la muerte asistida por médicos evolucionó hacia una creencia más amplia de que "el final de la vida por uno mismo es un derecho humano", independientemente de la enfermedad o la supervisión médica.

De las bolsas de plástico a las cápsulas

La cápsula Sarco, llamada así por los sarcófagos, surgió del trabajo de Nitschke con personas que querían morir en jurisdicciones donde la muerte asistida es ilegal. Muchos ya utilizaban gas nitrógeno, a menudo con una bolsa de plástico, para asfixiarse.

"Funciona muy bien", afirma. "Pero a la gente no le gusta. No les gusta la idea de una bolsa de plástico. Muchos dirían: 'No quiero morir con ese aspecto'". La cápsula Sarco se diseñó como una alternativa más digna: una cápsula impresa en 3D, con forma de pequeño vehículo futurista, que se inunda de nitrógeno cuando el usuario pulsa un botón.

Philip Nitschke entra en una de sus cápsulas
Philip Nitschke entra en una de sus cápsulas AP

Su aspecto de nave espacial fue una elección de diseño intencionada. "Que parezca un vehículo", recuerda que le dijo al diseñador. "Como si fueras a alguna parte. Te vas de este planeta, o lo que sea". La decisión de hacer Sarco imprimible en 3D, cuya fabricación cuesta 15.000 dólares (12.800 euros), también fue estratégica. "Si te doy algo material, eso es asistir el suicidio", dice. "Pero puedo ofrecer el programa. Eso es información".

Problemas legales en Suiza

El primer y único uso de Sarco en Suiza en septiembre de 2024 provocó una protesta internacional. La Policía detuvo a varias personas, entre ellas Florian Willet, director general de la organización de muerte asistida The Last Resort, y abrió un proceso penal por complicidad en el suicidio. Las autoridades suizas declararon posteriormente que la máquina es incompatible con la legislación helvética.

Willet fue puesto en libertad en diciembre. Poco después, en mayo de 2025, murió por suicidio asistido en Alemania. La Fiscalía suiza aún no ha determinado si se presentarán cargos por el caso Sarco. El dispositivo original sigue incautado, aunque Nitschke afirma que ya se está construyendo una nueva versión, que incluye una cápsula denominada 'Double Dutch', diseñada para que dos personas mueran juntas.

Evaluación de la capacidad mental mediante inteligencia artificial

A la polémica se suma la idea de Nitschke de incorporar inteligencia artificial al dispositivo. Según la legislación mundial sobre muerte asistida, la capacidad mental de una persona debe ser evaluada por un psiquiatra. Nitschke cree que el proceso es profundamente incoherente. "He visto muchos casos en los que el mismo paciente, visitado por tres psiquiatras distintos, recibe cuatro respuestas diferentes", afirma. "Hay una duda real sobre lo que realmente es esta evaluación de calidad dudosa".

Diseño conceptual de la cápsula 'Dutch Double'
Diseño conceptual de la cápsula 'Dutch Double' Exit International

Su alternativa propuesta es un sistema de IA que utiliza un avatar conversacional para evaluar la capacidad mental. "Te sientas allí y hablas de los temas de los que el avatar quiere hablar contigo", explica. "Y el avatar decidirá entonces si cree o no que tienes capacidad".

Si la IA determina que estás en tu sano juicio, se activará la cápsula de suicidio, dándote un plazo de 24 horas para decidir si sigues adelante con el proceso. Si esa ventana expira, la prueba de la IA debe comenzar de nuevo.

Las primeras versiones del software ya funcionan, afirma Nitschke, aunque no han sido validadas de forma independiente. "Sabemos que las evaluaciones de la IA tienen sus sesgos", afirma. "Podemos hacer lo que podamos para eliminar eso".

¿Se puede confiar en la IA?

Los psiquiatras se muestran escépticos. "No creo que haya encontrado a uno solo que piense que es una buena idea", añade. Los críticos advierten de que estos sistemas corren el riesgo de interpretar la angustia emocional como consentimiento informado, y plantean dudas sobre hasta qué punto es transparente, responsable o ético entregar decisiones de vida o muerte a un algoritmo.

"Esto ignora claramente el hecho de que la tecnología en sí misma nunca es neutral: Es desarrollada, probada, desplegada y utilizada por seres humanos y, en el caso de los llamados sistemas de inteligencia artificial, suele basarse en datos del pasado", afirma Angela Müller, responsable de política y defensa de Algorithmwatch, una organización sin ánimo de lucro que investiga el impacto de las tecnologías de automatización.

"Confiar en ellas, me temo, socavaría más que mejoraría nuestra autonomía, ya que la forma en que toman sus decisiones no sólo será una caja negra para nosotros, sino que también puede cimentar las desigualdades y sesgos existentes", declaró a Euronews en 2021.

Una máquina Sacro fotografiada en un bosque
Una máquina Sacro fotografiada en un bosque Exit International

Estas preocupaciones se ven acentuadas por un creciente número de casos de alto perfil que involucran a chatbots de IA y usuarios vulnerables. Por ejemplo, el año pasado, los padres de Adam Raine, de 16 años, presentaron una demanda contra OpenAI tras el suicidio de su hijo, alegando que había pasado meses confiando en ChatGPT.

Según la demanda, el chatbot no intervino cuando habló de autolesiones, no le animó a buscar ayuda y, en ocasiones, le proporcionó información relacionada con métodos suicidas, ofreciéndole incluso ayuda para redactar una nota de suicidio. Pero Nitschke cree que, en este contexto, la IA podría ofrecer algo más cercano a la neutralidad que un psiquiatra humano. "Los psiquiatras aportan sus propias ideas preconcebidas", afirma. "Lo transmiten bastante bien a través de su evaluación de la capacidad".

"Si eres adulto, tienes capacidad mental y quieres morir, yo diría que tienes todo el derecho a disponer de los medios para una muerte electiva pacífica y fiable", afirma No está claro si los organismos reguladores aceptarán algún día un sistema de este tipo. Incluso en Suiza, una de las jurisdicciones más permisivas del mundo, las autoridades se han opuesto firmemente a Sarco.

Ir a los atajos de accesibilidad
Compartir Comentarios

Noticias relacionadas

La IA en Davos 2026, del futuro del empleo a una IA útil y segura

Uruguay se convierte en el primer país de América Latina que despenaliza la eutanasia

Francia aprueba el derecho a la eutanasia en la Asamblea Nacional