Lo primero que hay que hacer para que la gente pueda sentirse segura utilizando la IA a nivel de privacidad, según Senén Barro, director científico del CITIUS y profesor de la Universidad de Santiago, es que los gobiernos pongan normas al respecto “no para anular el riesgo completamente, ya que es imposible, pero sí anularlo al máximo”. El rastro, según el investigador, se va dejando “a traves de los likes y los comentarios que dejamos, y las Inteligencias Artificiales van sabiendo qué anuncios ponernos, van a intentar que cambiemos de opinión y van, incluso, a intentar alterar nuestra opción al voto”. Esto es algo que dura 24 horas al día y 365 días al año según Barro: “Desde que nos levantamos hasta que nos acostamos, vamos dejando huellas digitales, vamos permitiendo poco a poco que creen un perfil de como somos”. Sin embargo, según él, “un software no puede de pronto decidir que controlando el mundo va a ser más poderoso”, ya que “un software depende de nosotros”.
Sin embargo, según Barro, “la privacidad, no es lo que más debería preocupar, sino el desempleo tecnológico”. Pero, a pesar de esto nos estamos centrando en cosas que no son necesarias: preocuparse por si un robot va a controlar el mundo, de acuerdo con el científico, “como preocuparse sobre la superpoblación en Marte”. Más particularmente, según el director del CITIUS, la IA es usada para espiar a la gente alrededor de todo el mundo, no solo en China o Korea del norte, sino que ya están espiando en otros países como EE. UU. o Italia, aunque en un grado menos intenso: “No es que no se vigile a la gente aquí, es que no se hace tanto como en Corea del Norte o China”. Y esto, según Barro, “no es malo mientras los gobiernos lo hagan para mejorar nuestra vida y nuestros derechos”. Sin embargo, “cuando pagas con tu tarjeta de credito, te montas en un avion o haces cualquier otra cosa que sea documentado digitalmente, el gobierno tiene acceso a eso en todo momento en cualquier momento que quieran”.
Incluso la IA puede ser usada para suplantar a la gente. De hecho, según las palabras de Senén Barro, “hoy es relativamente fácil”, porque solo con unos segundos de una voz esta se puede replicar casi exactamente. Esto puede resultar muy peligroso, ya que permite que la gente se pueda hacer pasar perfectamente por otra persona, y el profesor Barro advierte que “lo que vosotros veis, e incluso lo que yo veo, es como la punta del iceberg. Lo que está por abajo no lo vemos, pero todavía es más peligroso”. Respecto a que hay menores de edad usando la IA, Barro cometa que “hay que dejar libertad para vivir sin un corsé asfixiante, pero, al mismo tiempo, hay que iros educando en el uso de instrumentos que puedan ser muy nocivos para vosotros y para el resto dos compañeros”. Por esa razón el catedrático afirma que “la función de supervisión es la más importante, pero no es la única, ya que hay también responsabilidades de concienciación pública, aunque la de supervisión no significa eso porque velar porque aquello que la ley establece que se debe que hacer en España se está cumpliendo y, por tratar de hacer lo que la ley no impone, es necesario, en todo caso, hacer recomendaciones de lo que es bueno, como las buenas prácticas, frente a lo que no lo es”.
Por lo tanto, según Barro, “el sistema educativo tiene que cambiar radicalmente” porque en algunos aspectos los humanos no tenemos que insistir tanto porque eso ya lo hacen las máquinas: “Lo que debería hacer la educación es, por una parte y sobre todo, cultivar y cuidar la información que es complementaria a lo que las máquinas pueden hacer. Además, también educarnos para un mundo que cada vez es más un mundo de convivencia de personas y máquinas inteligentes”. Y Barro da datos concretos de la potencia de los sistemas de computación actuales: “Desde el año 2005 una persona no le gana al ajedrez a una máquina en un torneo serio”. Además, “nuestras capacidades en general de resolver problemas, de aprender, de movernos en el mundo, de aplicar el sentido común a lo que hacemos está muy lejos de nosotros”. El científico avanza que la IA probablemente va a permitie que sigamos creando riqueza en el mundo y que se siga avanzando en la mejora de la salud, la educación y la justicia. Como dice Barro, “desde luego está en nuestras manos que sea así o que sea un desastre, porque si dejamos que todo vaya ocurriendo espontáneamente, habrá ganadores, muy pocos, pero habrá perdedores, que seremos la inmensa mayoría. Pero, suponiendo que hagamos las cosas bien, la IA puede ser una amplificador de bondades y un amplificador de virtudes dentro del mundo de forma indefinida”. Por lo tanto, para Barro “la Inteligencia Artificial general sería esa Inteligencia Artificial que tiene un grado de competencia equivalente al nuestro en todo”, pero nadie sabe cuándo ni cómo se va a llegar hasta ahí y tampoco se tienen pistas claras sobre cómo se va a avanzar en la investigación. Aunque eso, según el catedrático, “no significa que no pensemos ya en cómo podríamos llegar a esa situación sin que realmente las máquinas tomasen un control sobre nosotros”.
Brais Arribas, profesor de filosofía en la Universidad de Vigo y en la UNED, explica la idea del transhumanismo como “el tratamiento de las cuestiones, el enfoque, y comenzar a preguntarnos algunas cuestiones básicas, que normalmente no nos hacemos”, pero también piensa que “muchas de las ideas que defiende esta corriente, en realidad, están por debajo de la mentalidad contemporánea y, por tanto, es una de las ideas que forman parte de nuestra mentalidad común, que pensamos que son nuestras, que, en realidad, fueron introducidas por agencias judiciales y algunas de ellas las defiende el transhumanismo”.
Esta idea habla de que se podrían mejorar de forma exponencial las capacidades del ser humano por medio de implantes y chips, y de que esta tecnología va a salvar a la humanidad. Muchos filósofos y pensadores siguen esta creencia, pero otras personas no, dando lugar algunas veces a un conflicto entre ambos pensamientos. Este tipo de propuesta, como especifica Arribas, piensa que el tranhumanismo puede ser una idea que, si se usa con un pretexto médico, podría llevar a cabo procesos médicos que podrían ayudar a curar enfermedades: “Puede ser útil para contrarrestar muchas enfermedades que por desgracia le afectan a mucha gente en el contexto contemporáneo”. Por otra parte, también piensa que podría ayudar de algún modo a erradicar o detectar comportamientos agresivos como el ciberbullying, que también afectan hoy en día a muchas personas: “La IA podría ser utilizada como una herramienta que localizase ciertos comportamientos agresivos o peligrosos, y que pudiese ser como una primera frontera que alertase sobre este tipo de situaciones”. Sin embargo, por otro lado, considera que es una idea un poco peligrosa debido al hecho de que algunos autores la defienden casi como una religión y que muchas veces rechazan su condición humana o algunas de sus características.
En primer lugar, esta teoría se basa la evolución humana en la tecnología. Por tanto, el ser humano solo puede mejorar, aumentar y potenciar sus cualidades físicas y cognitivas si adopta en su organismo avances tecnológicos y científicos, como la nanotecnología, la ingeniería genética, la cibernética, la Inteligencia Artificial o el machine learning: “Desde el punto de vista orgánico, creo que la manera de sentir del ser humano como de cada ser vivo está vinculada a su biología; no se puede separar su formación genética, biológica y fisiológica, es decir, no se puede separar la carne de la manera a través de la cual percibimos, pensamos, sentimos y tenemos emociones. En ese sentido me parece que nunca habrá una convergencia total”.
Por otro lado, esta teoría no cuenta con ningún límite y, en consecuencia, hay expertos que fundamentan sus conocimientos en esta filosofía y afirman que el ser humano puede cambiar, dominar y anular eventos naturales como la vejez, la culpa, el sufrimiento o, incluso, la muerte. Para Brais “este es un debate muy interesante entre parecer y ser, porque, si algo se parece mucho a algo y es capaz de comportarse cómo algo y tener unas respuestas que sean muy semejantes a los seres humanos, como ponerse tristes cuando pasa algo que es doloroso o reflejar que tienen dolor cuando los golpean, es muy difícil decir que no están teniendo sentimientos”. Además, consideran que el ser humano puede transformar su morfología, eligiendo entre varias opciones para la propagación de la especie. Por eso algunos transhumanistas llegan a hablar sobre la posibilidad de dejar a un lado el cuerpo humano transfiriendo toda la “información” que contiene cada individuo en una computadora, tal y como indica el profesor Arribas: “Lo que más peligroso y rechazable me parece son ciertas ideas, que algunos autores defienden, casi con connotación religiosa, en las que entienden que la tecnología nos va a salvar o que el ser humano va a encontrar algo así como un estadio utópico a través del uso de tecnologías. Esta mentalidad es salvífica y excesivamente optimista por parte del transhumanismo, y en ese sentido me parece un poco peligrosa”.
Por eso algunos filósofos afirman que el transhumanismo puede llegar incluso a ser peligroso en el futuro, por lo que dicen saber lo que puede llegar a pasar. En cambio Brais Arribas duda que el transhumanismo pueda llegar incluso a existir, a contener la mente de una persona en un robot, por lo que clonar la mente, la identidad o la personalidad de una persona le parce un gran cambio que no estamos destinados a crear. En cambio, “crear” una mente para un robot sin copiar la personalidad de una persona sí le parece factible: “La mente tiene una consecuencia, un imperfecto, y es cómo funciona nuestro cerebro; no se puede separar nuestra mente, y mucho menos nuestra identidad, nuestra personalidad, del cerebro. Y no hay evidencia científica ninguna que sostenga esta posibilidad. Ahora bien, recrear o imitar el funcionamiento cerebral por parte de un ordenador cuántico, en el futuro, quizás eso tenga posibilidad de ser realidad. Sin embargo, poder trasladar nuestra mente, nuestra identidad, nuestra personalidad a un “software”, me parece completamente de ciencia ficción, pero de mala ciencia ficción”.
Por lo tanto y en resumen, para el filósofo “Hay que insistir en la idea de que cuando se habla de modificaciones del cuerpo humano, siempre tiene que haber un paso previo de seguridad o el impulso para que las nuevas tecnologías permitan prever, anticipar y curar enfermedades, más que aquellas que tienen como punto de vista optimizar o aminorar nuestras capacidades; sobre todo, si suponen alteraciones genéticas de nuestra biología. Pero este es un debate ético que hace falta desarrollar y me parece importante poner unos limites a su desarrollo. Es decir, si la prevención y la curación vienen como resultado de la optimización de nuestra biología, entonces perfecto, pero desarrollar tecnologías cuyo fin principal sea la mejora de nuestras cualidades, me parece peligroso. La historia y las civilizaciones humanas siempre se definen por la desigualdad social y por la división entre privilegiados y los que no lo son. Mientras no tengamos la certeza de que estas mejoras puedan estar al alcance de casi la práctica totalidad de los seres humanos, su utilización significaría una estratificación social y biológica moralmente inaceptable”.
En pleno siglo XXI cada vez la IA está más presente en nuestras vidas, bien en forma de máquinas inteligentes como los robots Da Vinci o como inteligencias capaces de resolver todo tipo de duda que nos surja, ya sea para hacer trabajos o simplemente para matar la curiosidad. Pero, ¿hasta qué punto puede llegar el desarrollo de la IA, o, en algún momento, puede llegar a ser perjudicial para nosotros o podrá perjudicar a algún campo mayoritariamente ejercido por los humanos?
La IA puede ofrecer una serie de beneficios, según la catedrática de la UDC especialista en Inteligencia Artificial Amparo Alonso, tales como “el descubrir cómo se doblan las proteínas o cómo completar los mapas del genoma humano, uno de uno de los hallazgos científicos más importantes de los últimos años”. Según ella, “eso nos permite tener, por ejemplo, una medicina de mucha más precisión y mucho más personalizada”, pero también supone una serie de peligros “sobre todo uno que está bastante de moda como son deepfake, lo que sería realizar falsificaciones que, además, se pueden diseminar muy rápido en las redes”.
Además, la IA influye mucho en la vida de los jóvenes, puesto que, como afirma la profesora Alonso, “los jóvenes estáis creciendo en un mundo en el que esas herramientas ya las veis de manera natural”. Sin embargo, estas herramientas digitales también afectan a la vida de las personas mayores, puesto que no están acostumbradas, aunque, según Alonso, en general “está cambiando la vida de todos nosotros, ya que todos utilizamos dispositivo móvil para ver mapas, para tener servicios que antes no teníamos, como saber por dónde va a venir el autobús, cuánto va a tardar en llegar o llamar a un vehículo si lo necesitas”.
Ahora mismo la Inteligencia Artificial está evolucionado mucho y la pregunta que nos hacemos la mayoría de las personas es si en algún momento podrá ser perjudicial para los seres humanos. Sin embargo, para la investigadora de la UDC, “todo está en la responsabilidad que todos tenemos que tener porque estamos desarrollando una herramienta poderosa como la nuclear que comenzó como una bomba, pero también hemos sido después capaces con esa misma tecnología hacer curas para el cáncer”.