La inteligencia artificial y las interfaces cerebro-computadora deben respetar y preservar la privacidad, la identidad, la autonomía y la igualdad de las personas.
Rafael Yuste, Sara Goering y otros
Consideremos el siguiente escenario. Un hombre paralítico participa en un ensayo clínico de una interfaz cerebro-computadora (BCI). Una computadora conectada a un chip en su cerebro está entrenada para interpretar la actividad neuronal resultante de sus ensayos mentales de una acción. La computadora genera comandos que mueven un brazo robótico. Un día, el hombre se siente frustrado con el equipo experimental. Más tarde, su mano robótica aplasta una taza después de quitársela a uno de los asistentes de investigación y lastima al asistente. Se disculpa por lo que dice que debe haber sido un mal funcionamiento del dispositivo y se pregunta si su frustración con el equipo jugó un papel.
Este escenario es hipotético, pero ilustra algunos de los desafíos a los que podría enfrentarse la sociedad.
La tecnología BCI actual se centra principalmente en resultados terapéuticos, como ayudar a las personas con lesiones de la médula espinal. Ya permite a los usuarios realizar tareas motoras relativamente simples, como mover el cursor de una computadora o controlar una silla de ruedas motorizada, por ejemplo. Además, los investigadores ya pueden interpretar la actividad neuronal de una persona a partir de exploraciones de resonancia magnética funcional a un nivel rudimentario [1], es decir, que el individuo está pensando en una persona, por ejemplo, en lugar de en un automóvil.
Podrían pasar años o incluso décadas hasta que la BCI y otras neurotecnologías formen parte de nuestra vida diaria, pero los avances tecnológicos indican que estamos en camino de un mundo en el que será posible descifrar los procesos mentales de las personas y manipular directamente los mecanismos cerebrales que subyacen a sus intenciones, emociones y decisiones; en el que los individuos podrán comunicarse con otros simplemente pensando; y en el que poderosos sistemas computacionales vinculados directamente a los cerebros de las personas ayudarán a sus interacciones con el mundo de tal manera que sus capacidades mentales y físicas se verán enormemente mejoradas.
Estos avances podrían revolucionar el tratamiento de muchas enfermedades, desde lesiones cerebrales y parálisis hasta epilepsia y esquizofrenia, y transformar la experiencia humana para mejor. Pero la tecnología también podría exacerbar las desigualdades sociales y ofrecer a las corporaciones, piratas informáticos, gobiernos o cualquier otra persona nuevas formas de explotar y manipular a las personas. Y podría alterar profundamente algunas características humanas fundamentales: la vida mental privada, la capacidad de acción individual y la comprensión de los individuos como entidades limitadas por sus cuerpos.
Es fundamental considerar ahora las posibles ramificaciones.
El Grupo Morningside está formado por neurocientíficos, neurotecnólogos, médicos, especialistas en ética e ingenieros de inteligencia artificial. Incluye representantes de Google y Kernel (una start-up de neurotecnología de Los Ángeles, California); de proyectos internacionales relacionados con el cerebro; y de instituciones académicas y de investigación de Estados Unidos, Canadá, Europa, Israel, China, Japón y Australia. Nos reunimos en un taller patrocinado por la Fundación Nacional de Ciencias de Estados Unidos en la Universidad de Columbia, Nueva York, en mayo de 2017 para debatir la ética de las neurotecnologías y la inteligencia artificial.
Creemos que las directrices éticas existentes son insuficientes para este ámbito [2]. Entre ellas se incluyen la Declaración de Helsinki, una declaración de principios éticos establecida por primera vez en 1964 para la investigación médica que involucra a sujetos humanos (go.nature.com/2z262ag); el Informe Belmont, una declaración de 1979 elaborada por la Comisión Nacional de los Estados Unidos para la Protección de los Sujetos Humanos de la Investigación Biomédica y del Comportamiento (go.nature.com/2hrezmb); y la declaración de principios de precaución sobre inteligencia artificial (IA) de Asilomar, publicada a principios de este año y firmada por líderes empresariales e investigadores de IA, entre otros (go.nature.com/2ihnqac).
Para empezar a abordar este déficit, aquí presentamos recomendaciones relacionadas con cuatro áreas de preocupación: privacidad y consentimiento; agencia e identidad; aumento de la capacidad; y sesgo. Distintas naciones y personas de distintas religiones, etnias y antecedentes socioeconómicos tendrán diferentes necesidades y perspectivas. Por ello, los gobiernos deben crear sus propios órganos deliberativos para mediar en un debate abierto en el que participen representantes de todos los sectores de la sociedad y para determinar cómo traducir estas directrices en políticas, incluidas leyes y reglamentos específicos.
Inversiones inteligentes
Algunos de los inversores más ricos del mundo apuestan por la interacción entre la neurociencia y la inteligencia artificial. Más de una docena de empresas de todo el mundo, incluidas Kernel y la start-up de Elon Musk, Neuralink, que se lanzó este año, están invirtiendo en la creación de dispositivos que puedan "leer" la actividad cerebral humana y "escribir" información neuronal en el cerebro. Calculamos que el gasto actual en neurotecnología por parte de la industria con fines de lucro ya es de 100 millones de dólares al año y crece rápidamente.
La inversión procedente de otros sectores también es considerable. Desde 2013, más de 500 millones de dólares de fondos federales se han destinado al desarrollo de neurotecnología solo en el marco de la iniciativa BRAIN de Estados Unidos.
Las capacidades actuales ya son impresionantes. Un neurocientífico paralizado por esclerosis lateral amiotrófica (ELA; también conocida como enfermedad de Lou Gehrig o enfermedad de la neurona motora) ha utilizado una BCI para gestionar su laboratorio, redactar solicitudes de subvención y enviar correos electrónicos [3]. Mientras tanto, investigadores de la Universidad Duke en Durham, Carolina del Norte, han demostrado que tres monos con implantes de electrodos pueden funcionar como una "red cerebral" para mover el brazo de un avatar de forma colaborativa [4]. Estos dispositivos pueden funcionar a miles de kilómetros si la señal se transmite de forma inalámbrica a través de Internet.
Pronto se superarán los aparatos tan rudimentarios, que pueden estimular y leer la actividad de unas pocas docenas de neuronas como máximo. A principios de este año, la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) de Estados Unidos lanzó un proyecto llamado Diseño de Sistemas de Ingeniería Neural. Su objetivo es obtener la aprobación de la Administración de Alimentos y Medicamentos de Estados Unidos dentro de cuatro años para un dispositivo inalámbrico para el cerebro humano que pueda monitorear la actividad cerebral utilizando un millón de electrodos simultáneamente y estimular selectivamente hasta 100.000 neuronas.
Mientras tanto, Google, IBM, Microsoft, Facebook, Apple y numerosas empresas emergentes están construyendo redes neuronales artificiales cada vez más sofisticadas que ya pueden superar a los humanos en tareas con entradas y salidas bien definidas.
El año pasado, por ejemplo, investigadores de la Universidad de Washington en Seattle demostraron que el sistema FaceNet de Google podía reconocer una cara entre un millón de otras. Otro sistema de Google con una arquitectura de red neuronal similar supera con creces a los humanos que han viajado mucho a la hora de adivinar en qué parte del mundo se ha fotografiado una escena callejera, lo que demuestra la generalidad de la técnica. En agosto, Microsoft anunció que, en ciertas métricas, su red neuronal para reconocer el habla conversacional ha igualado las capacidades incluso de los profesionales entrenados, que tienen la opción de rebobinar repetidamente y escuchar las palabras utilizadas en contexto. Y utilizando datos de electroencefalogramas (EEG), investigadores de la Universidad de Friburgo en Alemania mostraron en julio cómo se pueden utilizar las redes neuronales para decodificar la actividad cerebral relacionada con la planificación y así controlar robots [5] .
Las redes neuronales futuras derivadas de una mejor comprensión de cómo funcionan las reales serán casi con toda seguridad mucho más potentes que estos ejemplos. Las redes artificiales que se utilizan actualmente se han inspirado en modelos de circuitos cerebrales que tienen más de 50 años de antigüedad, que se basan en el registro de la actividad de neuronas individuales en animales anestesiados [6]. En los laboratorios de neurociencia actuales, los investigadores pueden monitorear y manipular la actividad de miles de neuronas en animales despiertos y en comportamiento, gracias a los avances en métodos ópticos, computación, ingeniería molecular y microelectrónica.
Ya estamos íntimamente conectados con nuestras máquinas. Los investigadores de Google calcularon este año que el usuario medio toca su teléfono casi un millón de veces al año (datos no publicados). El cerebro humano controla los sistemas auditivo y visual para descifrar sonidos e imágenes, y ordena a las extremidades que sostengan y manipulen nuestros aparatos. Sin embargo, la convergencia de los avances en neurotecnologías e inteligencia artificial ofrecería algo cualitativamente diferente: la conexión directa de los cerebros de las personas con la inteligencia de las máquinas y la elusión de las funciones sensoriomotoras normales del cerebro y el cuerpo.
Cuatro preocupaciones
Para que las neurotecnologías despeguen en los mercados de consumo general, los dispositivos tendrían que ser no invasivos, presentar un riesgo mínimo y requerir mucho menos gasto para su implementación que los procedimientos neuroquirúrgicos actuales. No obstante, incluso ahora, las empresas que están desarrollando dispositivos deben rendir cuentas de sus productos y guiarse por ciertos estándares, mejores prácticas y normas éticas.
Destacamos cuatro áreas de preocupación que exigen una acción inmediata. Aunque planteamos estas cuestiones en el contexto de la neurotecnología, también se aplican a la IA.
1. Privacidad y consentimiento. Ya se puede obtener un nivel extraordinario de información personal a partir de los rastros de datos de las personas. Investigadores del Instituto Tecnológico de Massachusetts en Cambridge, por ejemplo, descubrieron en 2015 que el análisis detallado del comportamiento motor de las personas, revelado a través de sus patrones de escritura en el teclado de sus dispositivos personales, podría permitir un diagnóstico más temprano de la enfermedad de Parkinson [7]. Un estudio de 2017 sugiere que las mediciones de patrones de movilidad, como las obtenidas de personas que llevan teléfonos inteligentes durante sus actividades diarias normales, se pueden utilizar para diagnosticar signos tempranos de deterioro cognitivo resultante de la enfermedad de Alzheimer [8].
Los algoritmos que se utilizan para orientar la publicidad, calcular las primas de seguros o emparejar a posibles parejas serán considerablemente más potentes si se basan en información neuronal (por ejemplo, patrones de actividad de las neuronas asociadas a determinados estados de atención). Y los dispositivos neuronales conectados a Internet abren la posibilidad de que individuos u organizaciones (piratas informáticos, corporaciones o agencias gubernamentales) rastreen o incluso manipulen la experiencia mental de un individuo.
Creemos que los ciudadanos deberían tener la capacidad —y el derecho— de mantener privados sus datos neuronales (véase también “Agencia e identidad”). Proponemos las siguientes medidas para garantizarlo.
En el caso de todos los datos neuronales, la opción de no compartirlos debería ser la opción predeterminada y estar protegida con esmero. Las personas renuncian fácilmente a sus derechos de privacidad a favor de proveedores comerciales de servicios, como la navegación por Internet, las redes sociales o el entretenimiento, sin entender del todo a qué están renunciando. Una opción predeterminada de no compartir significaría que los datos neuronales se tratarían de la misma manera que los órganos o los tejidos en la mayoría de los países. Las personas tendrían que optar explícitamente por compartir datos neuronales desde cualquier dispositivo. Esto implicaría un proceso seguro y protegido, incluido un procedimiento de consentimiento que especifique claramente quién utilizará los datos, con qué fines y durante cuánto tiempo.
Incluso con este enfoque, los datos neuronales de muchos usuarios dispuestos a compartirlos, combinados con cantidades masivas de datos no neuronales (de búsquedas en Internet, monitores de actividad física, etc.) podrían utilizarse para extraer conclusiones "suficientemente buenas" sobre las personas que optan por no compartirlos. Para limitar este problema, proponemos que la venta, la transferencia comercial y el uso de los datos neuronales se regulen estrictamente. Esas regulaciones (que también limitarían la posibilidad de que las personas renuncien a sus datos neuronales o de que se escriba actividad neuronal directamente en sus cerebros a cambio de una recompensa económica) pueden ser análogas a la legislación que prohíbe la venta de órganos humanos, como la Ley Nacional de Trasplante de Órganos de los Estados Unidos de 1984.
Otra salvaguardia es restringir el procesamiento centralizado de datos neuronales. Nosotros recomendamos que se utilicen técnicas computacionales, como la privacidad diferencial o el "aprendizaje federado", para proteger la privacidad de los usuarios (véase "Protección de la privacidad"). El uso de otras tecnologías diseñadas específicamente para proteger los datos de las personas también sería de ayuda. Las técnicas basadas en la cadena de bloques, por ejemplo, permiten rastrear y auditar los datos, y los "contratos inteligentes" pueden dar un control transparente sobre cómo se utilizan los datos, sin necesidad de una autoridad centralizada. Por último, los formatos de datos abiertos y el código fuente abierto permitirían una mayor transparencia sobre lo que se mantiene privado y lo que se transmite.
2. Agencia e identidad. Algunas personas que recibieron estimulación cerebral profunda a través de electrodos implantados en el cerebro informaron haber sentido una sensación alterada de agencia e identidad. En un estudio de 2016, un hombre que había usado un estimulador cerebral para tratar su depresión durante siete años informó en un grupo de discusión [9] que comenzó a preguntarse si la forma en que interactuaba con los demás (por ejemplo, si decía algo que, en retrospectiva, pensaba que era inapropiado) se debía al dispositivo, a su depresión o si reflejaba algo más profundo sobre sí mismo. Dijo: “Se desdibuja hasta el punto en que no estoy seguro... francamente, de quién soy”.
Las neurotecnologías podrían claramente alterar el sentido de identidad y de agencia de las personas y sacudir supuestos fundamentales sobre la naturaleza del yo y la responsabilidad personal (legal o moral).
Las personas podrían acabar comportándose de maneras que les resulte difícil asumir como propias si el aprendizaje automático y los dispositivos que interactúan con el cerebro permiten una traducción más rápida entre una intención y una acción, tal vez mediante el uso de una función de "autocompletar" o "autocorrección". Si las personas pueden controlar dispositivos a través de sus pensamientos a grandes distancias, o si varios cerebros están conectados para trabajar en colaboración, nuestra comprensión de quiénes somos y dónde actuamos se verá alterada.
A medida que se desarrollan las neurotecnologías y las corporaciones, los gobiernos y otros comienzan a esforzarse por dotar a las personas de nuevas capacidades, la identidad individual (nuestra integridad física y mental) y la agencia (nuestra capacidad de elegir nuestras acciones) deben protegerse como derechos humanos básicos.
Recomendamos que se incluyan cláusulas que protejan esos derechos (los "neuroderechos") en los tratados internacionales, como la Declaración Universal de Derechos Humanos de 1948. Sin embargo, esto podría no ser suficiente: las declaraciones y leyes internacionales son simplemente acuerdos entre Estados, e incluso la Declaración Universal no es jurídicamente vinculante. Por ello, abogamos por la creación de una convención internacional que defina las acciones prohibidas relacionadas con la neurotecnología y la inteligencia artificial, similar a las prohibiciones enumeradas en la Convención Internacional para la Protección de Todas las Personas contra las Desapariciones Forzadas de 2010. Un grupo de trabajo asociado de las Naciones Unidas podría revisar el cumplimiento de los Estados signatarios y recomendar sanciones cuando sea necesario.
Esas declaraciones también deben proteger el derecho de las personas a recibir información sobre los posibles efectos cognitivos y emocionales de las neurotecnologías. En la actualidad, los formularios de consentimiento suelen centrarse únicamente en los riesgos físicos de la cirugía, en lugar de en los posibles efectos de un dispositivo sobre el estado de ánimo, la personalidad o la autoestima.
3. Aumento. Las personas con frecuencia sufren prejuicios si su cuerpo o cerebro funcionan de manera diferente a la mayoría [10]. La presión para adoptar neurotecnologías que mejoren la capacidad de resistencia o las capacidades sensoriales o mentales de las personas probablemente cambie las normas sociales, plantee cuestiones de acceso equitativo y genere nuevas formas de discriminación.
Además, es fácil imaginar una carrera armamentística de aumento de poder. En los últimos años, hemos escuchado a personal de DARPA y de la Actividad de Proyectos de Investigación Avanzada de Inteligencia de Estados Unidos discutir planes para proporcionar a soldados y analistas capacidades mentales mejoradas ("agentes superinteligentes"). Estas se utilizarían en situaciones de combate y para descifrar mejor los flujos de datos.
Las líneas divisorias que se tracen serán inevitablemente borrosas, dada la dificultad de predecir qué tecnologías tendrán efectos negativos en la vida humana. Pero instamos a que se establezcan directrices tanto a nivel internacional como nacional para fijar límites a las neurotecnologías de mejora que se pueden implementar y para definir los contextos en los que se pueden utilizar, como está sucediendo con la edición genética en humanos.
En algunas culturas se valora más la privacidad y la individualidad que en otras. Por lo tanto, las decisiones regulatorias deben tomarse en un contexto cultural específico, respetando los derechos universales y las pautas globales. Además, la prohibición total de ciertas tecnologías podría simplemente hacer que pasen a la clandestinidad, por lo que los esfuerzos para establecer leyes y regulaciones específicas deben incluir foros organizados que permitan un debate profundo y abierto.
Esas iniciativas deberían basarse en los numerosos precedentes existentes para crear consenso internacional e incorporar la opinión pública a la adopción de decisiones científicas a nivel nacional [11]. Por ejemplo, después de la Primera Guerra Mundial, una conferencia celebrada en 1925 condujo a la elaboración y ratificación del Protocolo de Ginebra, un tratado que prohíbe el uso de armas químicas y biológicas. De manera similar, después de la Segunda Guerra Mundial, se creó la Comisión de Energía Atómica de las Naciones Unidas para ocuparse del uso de la energía atómica con fines pacíficos y para controlar la proliferación de armas nucleares.
En particular, recomendamos que se regule estrictamente el uso de la tecnología neuronal con fines militares. Por razones obvias, cualquier moratoria debería ser mundial y patrocinada por una comisión dirigida por las Naciones Unidas. Aunque esas comisiones y otras iniciativas similares podrían no resolver todos los problemas relacionados con las mejoras, ofrecen el mejor modelo disponible para reconocer públicamente la necesidad de moderación y de una amplia participación en el desarrollo y la aplicación de una tecnología.
4. Sesgo. Cuando las decisiones científicas o tecnológicas se basan en un conjunto estrecho de conceptos y normas sistémicas, estructurales o sociales, la tecnología resultante puede privilegiar a ciertos grupos y perjudicar a otros. Un estudio de 2015 [12] concluyó que las ofertas de empleo que el algoritmo de publicidad de Google muestra a las usuarias femeninas pagan menos que las que se muestran a los hombres. De manera similar, una investigación de ProPublica reveló el año pasado que los algoritmos utilizados por las agencias de aplicación de la ley de Estados Unidos predicen erróneamente que los acusados negros tienen más probabilidades de reincidir que los acusados blancos con antecedentes penales similares (go.nature.com/29aznyw). Estos sesgos podrían incrustarse en dispositivos neuronales. De hecho, los investigadores que han examinado este tipo de casos han demostrado que definir la justicia de una manera matemáticamente rigurosa es muy difícil (go.nature.com/2ztfjt9).
En la industria y en el mundo académico ya se están debatiendo medidas prácticas para contrarrestar los sesgos en las tecnologías. Estos debates y discusiones públicas permanentes son necesarios para dar forma a las definiciones de sesgos problemáticos y, en términos más generales, de normalidad.
Recomendamos que las contramedidas para combatir los sesgos se conviertan en la norma en el aprendizaje automático. También recomendamos que los posibles grupos de usuarios (especialmente aquellos que ya están marginados) participen en el diseño de algoritmos y dispositivos como otra forma de garantizar que los sesgos se aborden desde las primeras etapas del desarrollo de la tecnología.
Neuroingeniería responsable
En muchas de estas recomendaciones se invoca un llamamiento a los investigadores de la industria y del mundo académico para que asuman las responsabilidades que conlleva el diseño de dispositivos y sistemas capaces de generar ese cambio. Para ello, podrían basarse en los marcos que ya se han elaborado para la innovación responsable.
Además de las directrices mencionadas anteriormente, el Consejo de Investigación en Ingeniería y Ciencias Físicas del Reino Unido, por ejemplo, ofrece un marco para alentar a los innovadores a “anticipar, reflexionar, participar y actuar” de maneras que “promuevan... oportunidades para la ciencia y la innovación que sean socialmente deseables y se lleven a cabo en interés público”. Entre los diversos esfuerzos para abordar esto en la IA, la Asociación de Normas IEEE creó una iniciativa ética global en abril de 2016, con el objetivo de incorporar la ética en el diseño de procesos para todos los sistemas autónomos y de IA.
La historia indica que la búsqueda de beneficios suele prevalecer sobre la responsabilidad social en el mundo empresarial. Y aunque, a nivel individual, la mayoría de los tecnólogos se propongan beneficiar a la humanidad, pueden enfrentarse a complejos dilemas éticos para los que no están preparados. Creemos que se podrían modificar las mentalidades y los fabricantes de dispositivos estarían mejor preparados si se incorporara un código de conducta ético en la industria y en el mundo académico.
Un primer paso hacia este objetivo sería exponer a los ingenieros, otros desarrolladores de tecnología y a los investigadores en formación académica a la ética como parte de su formación estándar al incorporarse a una empresa o laboratorio. Se podría enseñar a los empleados a pensar más profundamente sobre cómo lograr avances y aplicar estrategias que probablemente contribuyan de manera constructiva a la sociedad, en lugar de fracturarla.
Este tipo de enfoque seguiría en esencia el que se utiliza en medicina. A los estudiantes de medicina se les enseña sobre la confidencialidad del paciente, la no causar daño y sus deberes de beneficencia y justicia, y se les exige que presten el juramento hipocrático de adherirse a los más altos estándares de la profesión.
Los posibles beneficios clínicos y sociales de las neurotecnologías son enormes. Para aprovecharlos, debemos orientar su desarrollo de una manera que respete, proteja y permita lo mejor de la humanidad.
REFERENCIAS
[1] Kay, K. N., Naselaris, T., Prenger, R. J. & Gallant, J. L. Nature 452, 352–355 (2008).
[2] Goering, S. & Yuste, R. Cell 167, 882–885 (2016).
[3] Sellers, E. W., Vaughan, T. M. & Wolpaw, J. R. Amyotrophic Lateral Sclerosis 11, 449–455 (2010).
[4] Ramakrishnan, A. et al. Sci. Rep. 5, 10767 (2015).
[5] Burget, F. et al. Preprint at http://arxiv.org/abs/1707.06633 (2017).
[6] Hubel, D. H. & Wiesel, T. N. J. Physiol. (Lond.) 160, 106–154 (1962).
[7] Giancardo, L., Sánchez-Ferro, A., Butterworth, I., Mendoza, C. S. & Hooker, J. M. Sci. Rep. 5, 9678 (2015).
[8] Nieto-Reyes, A., Duque, R., Montana, J. L. & Lage, C. Sensors 17, 1679 (2017).
[9] Klein, E. et al. Brain-Computer Interfaces 3, 140–148 (2016).
[10] Parens, E. Shaping Our Selves: On Technology, Flourishing, and a Habit of Thinking (Oxford Univ. Press, 2014).
[11] Kitcher, P. Science in a Democratic Society (Prometheus, 2011).
[12] Datta, A., Tschantz, M. C. & Datta, A. Proc. Priv. Enhancing Technol. 2015, 92–112 (2015).