1. Inicio
  2. Secciones
  3. Ciencia y Tecnología
  4. Las neurotecnologías, cada vez más relacionadas con la IA, plantean un desafío normativo europeo

Desarrollo clínico y experimental. (Imagen de Artvizual en Pixabay)

RIESGOS DE SU APLICACIÓN

Las neurotecnologías, cada vez más relacionadas con la IA, plantean un desafío normativo europeo

El avance de las neurotecnologías puede poner en riesgo aspectos básicos del ser humano como la privacidad, al poder inferir el pensamiento de las personas, y la libertad para decidir, como resultado de la intervención en los procesos neuronales.

Etiquetado en: ·

La inteligencia artificial (IA) se ha convertido en un factor decisivo que impulsa numerosos campos, pero también en una nueva frontera para el desarrollo de las neurotecnologías. Más allá de su popularización en ámbitos como la automatización, la generación de contenidos o el análisis de datos, su aplicación al estudio y la intervención sobre el cerebro humano plantea importantes debates éticos y morales sobre el potencial de estas herramientas y su relación con los derechos y las libertades fundamentales.

Ahora, un estudio reciente elaborado por un investigador de la Universitat Oberta de Catalunya (UOC) analiza este cruce entre innovación y ética en el marco de la regulación europea de la IA y su impacto en el desarrollo de las neurotecnologías. “Ahora mismo, todas estas tecnologías están avanzando muchísimo, y lo que está en riesgo es la esencia de lo que nos hace ser humanos: la capacidad de pensar y de decidir“, afirma Miguel Ángel Elizalde, coordinador del Grupo de Estudios en Relaciones Internacionales y Derecho Internacional (GERD) y profesor de los Estudios de Derecho y Ciencia Política.

El trabajo, publicado en acceso abierto, analiza las preocupaciones éticas emergentes y advierte de posibles vulneraciones de derechos humanos vinculadas a la privacidad mental, la libertad de pensamiento y la autonomía individual. Además, se examina si el marco jurídico actual es suficiente o si será necesario articular nuevos derechos específicos ante una tecnología que puede llegar a influir en los procesos mentales de las personas.

Innovación en las neurotecnologías

Se entiende por neurotecnologías aquellos instrumentos y aplicaciones que sirven para medir y registrar señales cerebrales de distintos tipos, como eléctricas, magnéticas, ópticas, acústicas o mecánicas, y también las tecnologías que permiten intervenir en los procesos neuronales.

Durante décadas, estas tecnologías han tenido un desarrollo principalmente clínico y experimental, centrado en el diagnóstico de enfermedades neurológicas o en la investigación científica. Sin embargo, la incorporación de la IA permite explorar los límites para ir más allá y transformar por completo este campo.

Hasta ahora, no existía una herramienta capaz de gestionar la ingente información que produce el cerebro humano en forma de señales complejas. Estos procesos resultaban imposibles de interpretar sin sistemas avanzados de procesamiento. Pero ahora el panorama ha cambiado por completo. El desarrollo de la IA y su aplicación a las neurotecnologías permiten detectar patronescorrelaciones y significados en esos datos, lo que convierte señales aparentemente caóticas en información útil y accionable.

Gracias a esta capacidad, las neurotecnologías han pasado de ser simples herramientas de observación a convertirse en sistemas capaces de interactuar con la mente, especialmente cuando las tecnologías de neuroimagen se apoyan en otros avances. Se trata de un conjunto de tecnologías orientadas a estudiar la estructura y el funcionamiento del cerebro. Por su parte, las tecnologías de neurointervención están diseñadas para actuar directamente sobre los procesos neuronales mediante la estimulación o la modulación de la actividad cerebral, como hacen ciertos dispositivos neuroestimuladores cerebro-ordenador y otros aparatos.

Estos dispositivos cerebro-ordenador pueden funcionar tanto en un bucle abierto como en un bucle cerrado, ya que traducen las señales cerebrales recibidas e incluso también las envían, lo que permite modificar o ajustar las acciones. “Por ejemplo, un avión controlado por un dispositivo cerebro-ordenador informa sobre el estado del viento, la presión, etc., directamente al cerebro, lo que permite ajustar la dirección”, explica Elizalde, que también es investigador adscrito al Centro de Investigación en Transformación Digital y Gobernanza (UOC-DIGIT).

Riesgos de su aplicación

Dada la capacidad que la aplicación de la IA tiene en el campo de las neurotecnologías, existen numerosos riesgos derivados de su posible uso para interferir en los pensamientos y los estados mentales de las personas, como las emociones, las intenciones o las preferencias, lo que despierta grandes preocupaciones éticas y morales.

Por un lado, existe la idea de que, sin una regulación adecuada, estas herramientas puedan utilizarse para extraer información confidencial del cerebro o influir en la conducta de las personas sin su pleno conocimiento. “Las neurotecnologías, combinadas con la IA, podrían llegar a hacer inferencias del contenido subjetivo de la mente y, al mismo tiempo, intervenir en los procesos mentales, de forma que afectarían al comportamiento”, advierte Elizalde. Así, existe el riesgo potencial de que sean capaces de identificar estados emocionales, creencias o preferencias íntimas, lo que tendría enormes implicaciones y consecuencias en todos los contextos sociales y laborales.

Sin embargo, por otro lado, las neurotecnologías también pueden aportar beneficios extraordinarios en campos como la medicina, la salud mental o la rehabilitación neurológica. Las aplicaciones potenciales, que van desde terapias para enfermedades degenerativas hasta tratamientos para lesiones medulares, podrían transformar las vidas de millones de personas.

Marco normativo y reglamento

En este contexto, el reglamento europeo de IA contempla algunos de estos escenarios, ya que prohíbe los sistemas diseñados para manipular el comportamiento de manera subliminal o engañosa. Sin embargo, esta regulación podría dificultar la investigación y el desarrollo en Europa, lo que desplazaría la innovación hacia regiones con marcos legales más permisivos.

Hasta ahora, en la etapa de desarrollo, las limitaciones son parte de las excepciones del reglamento, pero, dado su progreso, los fabricantes europeos y extranjeros que deseen comercializar sus productos en Europa estarán sujetos a condiciones más estrictas, y esto puede afectar a su posición de competencia a escala mundial en los mercados internacionales.

“Existe el riesgo de que sea más difícil innovar en Europa que en otras partes del mundo; es una preocupación legítima. Sin embargo, no se debe perder de vista cuál es el riesgo de no regular”, señala Elizalde, que destaca que el uso potencial de la IA y las neurotecnologías para “escribir la mente” estaría prohibido por el reglamento europeo.

“La lógica de esta prohibición es proteger el derecho de las personas a decidir libremente frente a cualquier sistema de IA con capacidad de alterar el comportamiento de formas que eludan el control racional, lo que se considera un sistema de IA de riesgo inaceptable“, recalca Elizalde.

Diseño de nuevos derechos

Debido a los posibles conflictos y riesgos derivados de su aplicación, los expertos han planteado numerosos debates sobre el auge de estas tecnologías y la necesidad de diseñar nuevos derechos destinados a proteger la privacidad mental, la identidad personal y el libre albedrío frente a posibles abusos tecnológicos. Son los conocidos como neuroderechos.

“Es evidente que el reglamento se aplica a la IA y no está pensado específicamente para las neurotecnologías. Sin embargo, las neurotecnologías cada vez hacen más uso de la IA y funcionan de manera muy estrecha con esta tecnología”, explica Elizalde.

A juicio del investigador de la UOC, los derechos humanos existentes y el marco normativo europeo podrían ser suficientes si se interpretan de forma adaptada en contextos tecnológicos, ya que admiten interpretaciones que podrían proteger contra esta invasión de la privacidad o en caso de atentados contra la libre decisión de una persona. “Sobre todo, protegen el derecho a la libertad de pensamiento, el derecho a la privacidad y el derecho a la integridad en sus diferentes manifestaciones. Por lo tanto, el diseño de los neuroderechos no sería indispensable”, explica Elizalde.

Según esta perspectiva, no sería imprescindible crear nuevas categorías jurídicas, sino adaptar las existentes para cubrir las amenazas derivadas de la IA aplicada al cerebro. Esta interpretación evita el riesgo de fragmentar el sistema de derechos humanos y refuerza la idea de que las garantías fundamentales deben evolucionar al mismo ritmo que la sociedad.

Comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Fill out this field
Fill out this field
Por favor, introduce una dirección de correo electrónico válida.
You need to agree with the terms to proceed

twitter facebook smarthphone
Menú