Senén Barro Ameneiro (As Pontes,1962) é doutor en Física, catedrático de Ciencias da Computación e Intelixencia Artificial e director científico do CITIUS (Centro Singular de Investigación en Tecnoloxías Intelixentes da Universidade de Santiago de Compostela).
O profesor Barro alerta contra os perigos da a Intelixencia Artificial (IA) e afirma que “está facilitando ou amplificando as posibilidades de quen quere facer mal no mundo, pero tamén cada vez máis está facilitando que os que combaten os ciberdelitos poidan ter mellores ferramentas para combatelos”. Por outra parte, asegura que “se nos damos o tempo suficiente como especie humana é posible que poidamos chegar a ter máquinas cunha capacidade e cunha intelixencia comparable a nós, algo que hoxe aínda non e así”.
“Eu estudei física, fíxeno por que tiven un profesor que me motivou moitísimo antes de iniciar a carreira universitaria.” “Denomínase un risco existencíal asocíado á IA ou a outro tipo de tecnoloxías cando está en risco a nosa propía vida ou está en risco que as máquina intelixentes podan someternos” “Os gobernos, incluso os gobernos en paises democraticos como o noso, sempre teñen una infrastructura, recursos humanos e economicos dedicados precisamente ao espionaxe.”
―Vostede é o director científico do CITIUS. Como e por que se interesou polo campo da tecnoloxía intelixente e como foi a súa formación en Intelixencia Artificial?
—Eu estudei física, fíxeno porque tiven un profesor que me motivou moitísimo antes de iniciar a carreira universitaria. Pareceume un excelente profesor, moi incentivador dos seus estudantes, do pensamento crítico e do querer saber. Fixen física e gustoume, pero, cando cheguei a cuarto, había un dobre itinerario: un podía estudar a física máis teórica ou a física electrónica. A min gustábanme os dispositivos, os cacharros e, entón, fixen física electrónica.
Cando rematei tiven a sorte de que outro gran profesor, que xa non vive, me dera a oportunidade de facer unha tese de doutoramento nun campo que era moi novidoso en España, incluso no mundo, xa levaba algunha década de vida, pero aínda era moi incipiente. Tratábase da Intelixencia Artificial.
Na miña tese desenvolvín un sistema para analizar en tempo real e de forma continua sinais fisiolóxicos en hospitais, en contornos de vixilancia crítica, con pacientes críticos, que poden ser de unidades de coidados intensivos ou de coidados coronarios. Cando alguén sufriu un infarto, está nunha cama e hai unha serie de dispositivos ao redor que están continuamente monitorizando as súas constantes vitais. Eu o que fixen, a través de software, dun programa informático, foi que esa motorización fora parcialmente autónoma, intelixente e feita polas máquinas, non só polas persoas. A partir de aí son moitos anos de investigación. Eu non esperaba vivir na miña vida académica unha explosión das tecnoloxías intelixentes e da intelixencia artificial nas nosas vídas e iso é o que supoño que me trae aquí.
—Vostede dixo nunha entrevista respecto da IA que “hai uns vencedores e uns perdedores” e que “calquera tecnoloxía amplifica desigualdades”. Se os vencedores son os propietarios, cales son as desigualdades que produce nos que non teñen acceso nin coñecemento desta tecnoloxía?
—Está nas nosas mans se non anular completamente o feito de que existan perdedores, tratar de minimizalo ao máximo. As tecnoloxías canto máis poderosas son e canta máis capacidade de transformación teñen do noso mundo e das nosas vidas, espontaneamente máis desigualdades poden producir. É dicir, que se ninguén se preocupa de que non provoquen ou non incrementen esas desigualdades, vai ocorrer.
A Intelixencia Artificial é unha das tecnoloxías máis transformadoras que desenvolvemos. De feito sempre digo que despois da linguaxe natural, probablemente a IA está chamada a ser a máis disruptiva de cantas tecnoloxías hai. Entón, que pode ocorrer para mal?
Pode ocorrer que se desenvolvan novos dispositivos, servizos ou aplicacións no mundo da educación que permitan unha educación personalizada, apoiada na IA, pero pode ser que non todo o mundo poida acceder a ela. Se estas tecnoloxías non se fan alcanzables para o conxunto da poboación, haberá quen as poida pagar e quen non. Tamén pode ocorrer que desenvolvamos novos dispositivos, aplicacións, métodos de diagnóstico ou deseño de fármacos baseados na IA, pero, de novo, pode ocorrer que algúns teñan acceso a todo iso, porque poden pagalo, e outros non.
Hai unha cousa que preocupa e debería preocupar máis aos gobernos que é o que se chama desemprego tecnolóxico. A IA está acelerando a automatización do traballo e cada vez hai máis robots e software que fan parte do traballo que antes facían as persoas. Iso pode acabar producindo un desemprego moi grande de moitas persoas que non teñan ademais capacidade de acceder a outros postos de traballo. Se os gobernos non se preocupan diso, vai haber moitos perdedores que son a xente que vai quedar separada do mercado laboral e de calquera opción de atopar un traballo e, polo tanto, de ter unha vida digna.
Todo isto está nas nosas mans, pero pode ocorrer, polo que me preocupa que unha vez máis e de forma máis notable, haxa vencedores, que son os de sempre, os que teñen o capital, os que teñen a capacidade de comprar e de comercializar e de desenvolver estas tecnoloxías e de aplicalas, e o resto. No resto estamos case todos.
—Nesa mesma entrevista dixo que “non hai fundamento para alarmar de riscos existenciais para a humanidade derivados da IA”. De que maneira quere dicir iso que non temos por que preocuparnos, sobre todo, do que poden descubrir de nós e da nosa intimidade?
—Denomínase un risco existencíal asociado á IA ou a outro tipo de tecnoloxías cando está en risco a nosa propía vida ou está en risco que as máquinas intelixentes poidan someternos, poidan, en definitiva, acabar controlándonos. Cando eu digo que non estamos en risco existencíal refírome a que a IA que hoxe temos é absolutamente dependente de nós, no sentido de que non ten autonomía propia. Non pode decidir que facer se non é a través dun deseño e dunha especificación humana. Non ten consciencía, non ten obxectivos propios, non pode de pronto un software de IA tomar o control do mundo porque decide que así vai ser máis poderoso. Iso nin pode ocorrer a día de hoxe nin pode previsiblemente ocorrer en moito tempo. Hai quen resume isto dicindo que preocuparnos hoxe por isto sería como preocuparnos hoxe pola superpoboación en Marte. Quen está preocupado por iso aquí? Ninguén, porque nin sequera as persoas chegamos a Marte; chegaron robots, pero as persoas non. Polo tanto sería un pouco ridículo obsesionarse con este problema.
Isto é distinto doutro tipo de problemas que son tamén moi importantes asociados á IA. O tema da privacidade éo, o tema das desigualdades que antes comentaches éo, o tema do desemprego tecnolóxico éo, o tema da delegación cognitiva éo tamén; é dicir, como as máquinas cada vez son máis intelixentes e máis capaces no uso da lingua: escriben, escoitan, entenden e crean textos e outro tipo de contidos. Podería ser que vaiamos delegando as nosas capacidades cognitivas en máquinas. Aí si que teriamos un problema; sobre todo, vós, porque os que xa somos maiores xa non podemos delegar, xa que estamos moi condicionados pola nosa historía; pero vós non, xa que estades aprendendo e é moi importante que non renunciedes a saber máis pola vosa conta, a ter un pensamento crítico, a comprender ben os textos que ledes, a falar ben, a escribir ben e a relacionarvos continuamente e de modo positivo cos vosos compañeiros, coas vosas familías. Se delegades todo iso progresivamente nas máquinas, tendes un problema moi serio para o futuro e para a humanidade no seu conxunto.
—Podería aclararnos un pouco máis sobre que a maior preocupación é a privacidade?
—Para min non é a maior preocupación. Para min a maior preocupación é a delegación cognitiva. A privacidade realmente tamén é un dos temas dos que nos temos que ocupar. En Europa, isto preocupa moito con razón e efectivamente hoxe boa parte da nosa vida é unha vida dixital. Desde que vos erguedes pola mañá ata que vos deitades, ides deixando pegadas dixitais nos móbiles. Deixádelo ao mellor cando subides ao autobús e pasades a vosa tarxeta de usuario, cando se vai a comprar cunha tarxeta de crédito. Ao mellor non estades aínda imaxinando ese mundo porque aínda tedes unha vida que non está tan dixitalizada como a que ides vivir dento de dous, tres, cinco anos e, non digamos xa, cando vos fagades maiores.
Todo iso que imos facendo cada vez máis, vai quedando recollido dixitalmente e as máquinas que o recollen despois poden facer que esa información sexa combinada, procesada, para obter unha información sobre nós, sobre a nosa vida, sobre os nosos desexos, sobre cal é a nosa intención de voto. Ao mellor non a declaramos explicitamente, pero cando interaccionades coas redes sociais, cando escribides nelas, os pequenos detalles, as sutilezas do que escribides, aínda que sexades responsables e respectuosos, ides deixando a través dos likes, a través dos vosos comentarios un retrato do que sodes, para ben e para mal.
Incluso para ben, podedes estar declarando implicitamente unha información que non queredes que estea a disposición doutro, ou a disposición de máquinas. Despois, en función desa información intentan vendervos cousas ou intentan condicionar o voso voto ou a vosa opinión. Isto pode ser moi grave. Verdade que a ti non che gustaría que alguén estivera continuamente dicíndoche o que tes que facer, o que tes que comprar ou como tes que pensar ou a quen tes que votar cando sexas maior de dezaoito anos? Non che gustaría. Nin a ti nin a min. Non tolerariades nos vosos compañeiros unha interferencia constante e condicionante nas vosas vidas. Pois iso pode ocorrer coas máquinas, ademais, dun modo moi sutil que, ao mellor, non percibides porque pode non parecer unha interferencia real pero éo.
Isto hai que evitalo meidante leis que o impidan e a través da educación, porque como cidadáns temos que ter un comportamento crítico e, polo tanto, saber ao que nos enfrontamos e saber actuar fronte a iso.
—Como investigador e experto, cales son as principais medidas que propón para protexer a privacidade da xente que usa a IA na súa vida diaria?
—Hai múltiples. A educación, insisto, é fundamental. Nós temos que ser persoas educadas, non só por ter unha cultura ampla, non só por ter uns estudos máis ou menos especializados, senón que temos que estar educados para vivir nun mundo que cambia día a día. O mundo no que vós ides medrar non é o mundo no que eu vivín. A aula era moi parecida a esta, non tiñamos esta tecnoloxía tan fantástica para gravar e iniciativas tan interesantes coma esta, pero a aula era moi similar. A primeira calculadora que entrou no colexio onde eu estudaba tróuxoa un rapaz cuxos pais tiñan moito diñeiro. Compráronlle a calculadora en Canarias. Chegaba pola porta da aula de tecnoloxía e alucinabamos: “Unha calculadora!”. Xa sabedes o que é. Pode facer operacións básicas e pouco máis. Non había ordenadores, non había móbiles e non había reloxos intelixentes. Non había nada, porque non chegaba esa tecnoloxía, non se desenvolveu, así que, o meu mundo era moi distinto. A educación que necesitades non é a mesma que eu recibín, que, con todo, creo que foi boa e non me queixo diso.
Se os gobernos non regulan o uso destas tecnoloxíaas e non valoran a nosa privacidade e dereitos fundamentais como persoas, imos a ter un problema moi serio. Eu creo que na innovación e desenvolvemento de novas tecnoloxías non todo vale.
—Cre vostede que a IA pode poñer vidas en risco de morte?
—Seguro que pode. Se alguén, por exemplo, saca un dispositivo médico que non está suficientemente tratado, que non cumpra unha normativa rigorosa ou se fai un diagnóstico médico e se equivoca, sistematicamente está poñendo a nosa vida en risco. Non é unha esaxeración. Entenderíase se as farmacias puidesen vender medicamentos que non pasasen toda unha serie de controis rigorosos desde que foron deseñados, fabricados e se comercializaron? A información que identifica un medicamento ou os posibles efectos secundarios ou como se poden consumir, quen os prescribe? Sabedes que a maioría dos medicamentos non se poden comprar na farmacia libremente, senón que ten que haber unha prescrición médica. Todo iso non se fai caprichosamente, senón que trata de protexer os nosos dereitos e darnos garantías; as maiores posibles. Coa IA ten que ser igual, coa enerxía nuclear ten que ser igual, con todo aquilo que teña a posibilidade de incidir na vida das persoas, temos que ter moi claro como se regula e cumprir coa lei.
—Cales cre vostede que deberían ser os límites do que poida saber a IA da xente e das súas vidas e por que?
—Moitas das cautelas ou limitacións que lle temos que poñer á IA xa están establecidas. Non son exclusivas desa tecnoloxía. O que pasa é que a IA é unha ferramenta moito máis poderosa, tanto para facer o ben como tamén para facer o mal. Se eu, por exemplo, che roubara os datos da túa carteira, sería un delito ou non? Se o fago fisicamente, si; se o fago a través dunha IA por un programa intelixente, faise pasar por ti moi habilmente e é posible quitarlle os datos da túa conta bancaria. Segue sendo o mesmo delito, o que pasa é que está feito por unha tecnoloxía que é capaz de substituírte moi facilmente. Por outra banda, todos vistes as noticias falsas que se poden crear e como se pode substituír a voz. É dicir, cuns segundos da miña voz un programa de IA pode replicala exactamente para facerme dicir cousas que non dixen; e iso con malas intencións pode facer moito dano. Pero iso non significa que sexa algo novo, senón que son delitos ou situacions que xa tiñamos pero que era preciso impedir ou regular. Agora, non obstante, hai novas ferramentas máis potentes e mellores para cometer eses delitos.
—Podemos ver habitualmente nos medios e nas redes, vídeos e fotos creadas con Intelixencia Artificial. Como afecta e afectará á privacidade da xente que a IA poida imitar e incluso falsificar cousas como por exemplo voces, vídeos ou fotos?
—Si, está ocorrendo. Efectivamente, hoxe é relativamente fácil. Eu dou clases no grao de informática na Universidade de Santiago e dou varias materias, unha delas chámase Intelixencia Artificial. Son alumnos de terceiro de carreira e todos os anos lles pido, por grupos, que fagan presentacións diante do resto de compañeiros e facemos un debate moi interesante, porque escollen un tema relacionado coa Intelixencia Artificial que teñen que explicar e discutir. E un dos grupos xusto escolleu un tema moi parecido á pregunta que me fas e, para evidenciar o fácil que é hoxe suplantar a outras persoas, xusto o que fixo foi a traves dunha ferramenta de IA que en principio é de libre disposiciṕon en internet, colleu uns segundos da miña voz e fixo unha sintese cun sintetizador de voz coa miña mesma forma de falar. De feito, eu escoiteino e un normalmente non se escoita igual que o escoitan os outros; é dicir, que tal como eu percibo a miña voz seguro que é distinto a como a percibides vós. Pero, en todo caso, recoñecínme completamente. Por outra parte, tamén alimentaron ese software con textos meus que hai en Internet. Eu escribo moito en medios de comunicación e colleron moitos textos, metéronos como contexto na máquina de tal modo que a máquina aprendera, para que fora de algún modo como eu na forma de pensar, aínda que o número de textos non é suficiente; pero, aínda así, despois facíanlle preguntas como, por exemplo, “Cal é a túa forma de pensar respecto o tema do aborto? Qué votas: esquerdas ou dereitas?” E eu sentínme moi recoñecido no que decía o bot, o robot de software que me estaba suplantando. É verdade que neste caso, porque non teñen os medios ao seu alcance, nin se pretendía nin poderían facer unha replica, un clon ou un xemelgo dixital moi fiable de min, pero os malos, os que queren facer mal, si que teñen esas ferramentas.
As mafias en países ou gobernos que non son democráticos, que son autoritarios, e os ciberdelincuentes teñen moitos recursos como para poder cometer ciberdelitos. Hai unha cousa positiva, a Intelixencia Artificial está facilitando ou amplificando as posibilidades de quen quere facer mal no mundo, pero tamén cada vez máis esta facilitando que os que combaten os ciberdelitos podan ter mellores ferramentas para combatilo. Por exemplo, hoxe é relativamente fácil e os bancos están continuamente analizando cal é a actividade que nós facemos coas nosas tarxetas de crédito e, de forma automática, detectan cando hai comportamentos no uso dunha tarxeta de crédito que non se corresponde co noso perfil de compras. Nese caso alertannos ou pídennos confirmación expresa dunha nova compra. Que están facendo con esto? Pois están evitando que se cometan moitos fraudes por suplantación de identidade.
—Cómo afecta á privacidade a IA que poda pasarse por outras persoas para facer ou conseguir algo?
—Que che parecería se a traves dun software dese tipo, un dos teus compañeiros se fai pasar perfectamente por ti con alguén que ti aprecias, que ti queres, unha persoa que che gustaría que tivera por ti unha alta consideración? Pero que pasa se resulta que a través desa suplantación o que fan é facerse pasar de ti pero dun modo negativo: insultando a esa persoa, enganándoa ou facéndolle pensar que ti pensas dun modo que non pensas? Non che gustaría nada. Pois iso pode ocurrir, e por iso nos afecta. Neste caso afectaría nunha relación persoal. Pero pode afectar a cousas tan graves como as decisións que se poden tomar politicamente ou os roubos de recursos, de cartos, negocios, ventas de armas ou de compañías. A todo temos que estar moi alerta porque a capacidade da IA é enorme porque o que vós vedes e, incluso, o que eu vexo é como a punta do iceberg. O que está por debaixo non o vemos pero aínda é máis perigoso.
—Hai unha Axencia Española de Supervisión da Intelixencia Artificial situada na Coruña. Qué funcións cre vostede que debe ter esta axencia e como pode ser verdadeiramente eficaz?
—Non son as que eu creo, senón que son as que ten asignadas xa, porque a Unión Europea decidiu con bo criterio que todos os países tiveran un organismo deste tipo. Son organismos de supervisión de Intelixencia Artificial e España decidiu crealo ex novo, é dicir, non dedicar unha das institucións ou organizacións que xa tiñan a este fin, senón crear un expresamente e situalo na Coruña, o cal é unha fortuna para todos. A Axencia Española de Supervisión da IA na Coruña ten como principal responsabilidade precisamente facer unha supervisión do uso que no noso territorio se fai da Intelixencia Artificial; tanto o que se deseña e aplica desde España para o mundo como ao revés, o que se pode estar deseñando (un servicio, un producto, unha aplicación) no resto do mundo pero se quere usar o comercializar en España. Entón, aínda que a función de supervisión é a máis importante, non é a única. Ten tamén responsabilidades de concienciación pública, facendo recomendacións do que é bo fronte ao que non o é e tamén facendo visibles as boas prácticas.
—Hai preocupación sobre o uso que os menores de idade poden facer da IA. Cales son os principaies perigos aos que nos tenemos que enfrentar, como debemos facelo e de que xeito cre que a Inteligencia Artificial vai influir sobre nós?
—Que exista unha precupación especial polos menores de idade é normal, xa que temos unha serie de tecnoloxías moi poderosas que requieren un alto grao de madurez para ser utilizadas e para ser incorporadas nas nosas vidas. E vós aínda estades madurando. Incluso moitos que teñen moita máis idade que vós aínda estan madurando porque, de feito, maduramos durante toda a vida, se entendemos como madurar un proceso de formación permanente e de comportamento cada vez más sensato e fundamentado nunha boa educación, nun pensamento crítico permanente.
Por outra parte, vós sodes especialmente sensibles a calquera tecnoloxia ou calquera dispositivo que poda ter un uso inconvediente pola vosa parte, ou que poda condicionar o voso comportamento, a vosa opinión ou as vosas accións. E isto é o que está ocurrindo coa IA; é dicir, a IA pode ser un elemento de manipulación moi evidente das persoas e aínda máis cando esas persoas aínda ao mellor non teñen a formación, o coñecemento, o grao de madurez e a idade adecuada para usar estas tecnoloxías. Por iso hai que entender que, aínda que nunca gusta prohibir, hai momentos na vida das persoas onde hai que estar moi vixiantes por parte da familia, por parte do entorno educativo e marcarvos bastante a pauta a seguir. Isto quere dicir que hai que deixar liberdade para vivir sen un corsé asfixiante, pero, ao mesmo tempo, hai que irvos educando no uso de instrumentos que poden ser moi nocivos para vós e para o resto dos compañeiros. Cal é o problema que se pode derivar de non facelo así? Calquera que te podas imaxinar. Podes facer moitísimo dano aos demais e a ti mesmo.
—Hai algunhas profesións que están a ser ameazadas pola IA. Que tipo de formación nos recomenda para prepararnos para novos traballos no campo da privacidade na Intelixencia Artificial?
—O mundo no que vos estades formando e o mundo no que se vai desenvolver o voso traballo non é o meu, non se parece ao que eu vivín á vosa idade. Polo tanto, o modelo e o sistema educativo teñen que cambiar radicalmente, porque se cada vez as máquinas son más competentes en almacenar e recuperar información, en manipular esa información, en facer cálculos matemáticos e, incluso, en facer razoamento lóxico, quizais non é aí onde tanta insistencia temos que facer no proceso educativo. O que debería facer a educación é, por una parte e sobre todo, cultivar e coidar a información que é complementaria ao que as máquinas poden facer. Ademais, tamén educarnos para un mundo que cada vez é máis un mundo de convivencia de persoas e máquinas intelixentes. Como dixeches antes, eu dirixo un centro de investigación, o CITIUS, onde recibimos cada ano centos de nenos e nenas ou adolescentes de diversas idades e de todo tipo de colexios e institutos de toda Galicia para os que lles preparamos contidos e sesións demostrativas realmente moi interesantes. Cando podo, sempre os recibo eu no vestíbulo, e alí mandei colocar un vinilo que di: “Queremos persoas creativas, de pensamento crítico, con sentido común e capacidade de comunicación porque o resto xa o farán as máquinas intelixentes”. Polo tanto, se me decides que é o mellor que poden facer por nós as persoas que nos educan, a resposta é educarvos como persoas con pensamento crítico, con sentido común e con capacidade comunicacion; é dicir, traballar a linguaxe ao máximo para poder comprender o que se le; para discutir e argumentar cos vosos compañeros; para poder construir, a traves da linguaxe, formas de comunicarnos, de pensar en novo coñecemento, de inventar e de crear. Iso si, todo isto ten que estar soportado por coñecementos. Tedes que saber matemáticas, física, química e literatura, porque os coñecementos son imprescindibles. Pero despois hay que usalos non como máquinas, porque aí nunca vamos gañar. Xa está demostrado: as máquinas van ir a mellor, non a peor. Entón, nós tamén temos que ir a mellor, non a peor; pero non no seu camiño, porque, se non, fracasaremos.
Isto, ademais, é o que piden cada vez máis as empresas e as administracións públicas que contratan a persoas: queren que as persoas teñan coñecementos sobre o ámbito de traballo que teñen que desenvolver, pero, sobre todo, queren ese tipo de perfil de persoas que realmente podan crear e enfrontarse a problemas novos e resolverlos con capacidade reflexiva, espírito crítico e boas capacidades de comunicación. Isto é o que piden e isto é o que nos diferencia. O resto xa o fan as máquinas.
—Como cre vostede que imos chegar ao futuro coas máquinas?
—Se nos damos o tempo suficiente como especie humana, eu creo que podemos chegar a ter máquinas cunha capacidade e cunha intelixencia comparable a nós, aínda que hoxe non é así. Hoxe podedes pensar así porque vedes que para problemas concretos as máquinas supérannos. Desde o ano 2005 ningunha persoa lle gana a unha máquina ao xadrez nun torneo serio. Entón poderiamos pensar que o xadrez é súper difícil e soemos identificar como personas moi intelixentes os grandes mestres de axedrez nesa actividade concreta. Pero, aínda que hai outras máquinas nos gañan en actividades concretas, no que son as nosas capacidades en xeral de resolver problemas, de aprender, de movernos no mundo, de aplicar o sentido común ao que facemos, están aínda moi lonxe de nós. Eu creo que poden chegar ao nivel noso, pero non sabemos como; e seguramente tardarán, se é posible, décadas. Pero no momento que se chege aí, como será o mundo? Non teño nin idea. Ninguén sabe se será mellor ou se será o noso fin como seres humanos. Xa o veremos. Xa o veredes vós. Eu non, que son moi maior.
—En canto aos límites futuros da IA, vostede afirmou que o seu desenvolvemento “e o seu impacto na sociedade e na economía van seguir medrando de xeito indefinido”. De que forma cumprirá todas as expectativas creadas e como se controlará eficazmente a privacidade de todo o mundo?
—Cabe pensar que Intelixencia Artificial vai permitir que sigamos creando riqueza no mundo, que o mundo siga avanzando en canto á creación de riqueza e de capacidade de mellorar a nosa saúde, a nosa educación e a xusticia. Aparentemente en todo, pero está por ver e, dende logo, está nas nosas mans que sexa así ou que sexa un desastre, porque se deixamos todo a como poda ir ocurrindo espontaneamente, haberá gañadores, moi poucos, pero haberá perdedores, que seremos a inmensa maioría. Pero, supoñendo que fagamos as cousas ben, a IA pode ser unha amplificador de bondades e un amplificador de virtudes dentro do mundo de forma indefinida. Non o sei, pero isto é como di o entrenador do Atlético de Madrid, partido a partido; e xa iremos vendo.
—Hai teorías de que no futuro a IA pode superar aos humanos e mesmo dominalos. De que modo pensa que isto podería ocorrer e que se debería facer para evitalo?
—A Intelixencia Artificial xeral sería esa Intelixencia Artificial que ten un grao de competencia equivalente a nós en todo. Como chegar aí? Non sabemos se é posible e non temos pistas claras de como se avanzará na investigación para chegar a ese punto. Polo tanto, quen di que estamos próximos á Intelixencia Artificial é un ignorante ou ten mala intención. Intenta enganarnos porque non sabemos como chegar aí, pero iso non significa que non pensemos xa en como poderíamos chagar a esa situación sen que realmente as máquinas tomasen un control sobre nós, algo que non e desexable.
Entón, hai diversas vías de pensamento de investigación para intentar que, chegado ese punto, as máquinas convivan con nós sen someternos. E hai principalmente dúas formas: unha, é ter unha especie de botón de parada, é dicir, algo que dándolle poidamos desconectar esa Intelixencia Artificial capaz de facernos moito dano porque é tan intelixente ou máis que nós. E outra, é que esa Intelixencia Artificial realmente se vaia desenvolvendo, aprendendo e evolucionando sempre sustentada nos valores e principios que os humanos consideramos positivos. É dicir, sería como unha Intelixencia Artificial educada para convivir e respetarnos. Xa veremos.