Senén Barro ingresa na Real Academia Galega de Ciencias

O catedrático de Computación e Intelixencia Artificial Senén Barro ingresa na Real Academia Galega de Ciencias.

O catedrático de Computación e Intelixencia Artificial Senén Barro ingresa na Real Academia Galega de Ciencias.

Senén Barro, catedrático da Universidade de Santiago de Compostela (USC) no Departamento de Ciencias da Computación e Intelixencia Artificial, pronunciou o seu discurso de ingreso na RAGC e recibiu a súa medalla de mans do presidente da RAGC, Miguel Ángel Ríos, e o diploma do reitor da USC, Juan Viaño.

Asistiron o secretario xeral de Universidades da Xunta de Galicia, Xosé Alberto Díez de Castro; o presidente da Deputación da Coruña, Valentín González; o alcalde de Santiago, Martiño Noriega; o presidente do Consello da Cultura Galega, Ramón Villares; a valedora do Pobo, Milagros Otero; e o director xeral de Banco Santander e director global de Santander Universidades, José Antonio Villasante.

 

Senen1

Discurso de ingreso na Real Academia Galega de Ciencias

Título: Poden pensar as máquinas?

Autor: Senén Barro Ameneiro

Centro de Investigación en Tecnoloxías da Información (CiTIUS)

Universidade de Santiago de Compostela

 

 

Excmo. Sr. Presidente da Real Academia Galega de Ciencias, Excmas. Sras. e Sres. Académicos, autoridades, familia, amigas e amigos, Sras. e Sres.

 

PRÓLOGO

 

Síntome moi honrado de ingresar na RAGC. Máis aló de reflectir a miña satisfacción, o que realmente desexo é mostrarlles o meu sincero agradecemento. Son moitas as persoas ás que debo este momento, xa que influíron positivamente nos seus antecedentes. Por razóns obvias só podo citar a unhas poucas. Pero todas están no meu recordo e, o que é máis importante, no meu corazón.

 

En primeiro lugar, quero agradecerlles a todos os membros desta Academia que pensasen en min e facéndoo, que considerasen que son un profesor e investigador digno de formar parte desta prestixiosa institución. Permítanme todas as persoas que forman parte desta casa que sirva como agradecemento ao conxunto a miña referencia ao presidente da RAGC. Grazas presidente polo teu apoio á miña persoa e o teu excelente quefacer polo mundo da ciencia e a tecnoloxía, tanto na túa vida profesional como desde a Academia. Querido Miguel Ángel, tiven a fortuna de coñecerte fai xa bastantes anos, de colaborar contigo nas diversas e importantes responsabilidades que fuches desempeñando, sempre con dedicación e acerto, de coñecer a unha gran persoa, a un excelente profesional e a un académico dunha extraordinaria calidade docente e investigadora. A calidade da persoa puiden xulgala eu mesmo. A do profesor e investigador a través de terceiros, que é tamén unha forma de coñecer aos demais.

 

Tamén quero facer públicos o meu agradecemento e aprecio polo profesor Félix Vidal Costa, cuxo pai, o profesor Enrique Vidal Abascal, foi un dos seis promotores desta Academia que hoxe nos acolle. Agradézoche, querido Félix, non só que te prestaras, e de moi bo grao, a elaborar a resposta ao meu discurso. Falar sobre outros, ademais de roubar un tempo precioso, compromete. Pero aínda máis agradézoche o apoio e o aprecio que sempre me demostraches e que sabes que é mutuo. Tampouco neste caso tiven a fortuna de ser nin alumno nin colaborador científico do profesor Vidal, a pesar de que el foi mestre e mentor de moitos físicos. En todo caso, como ocorreu co noso presidente, puiden comprobar por outros a súa excepcional contribución á Universidade e á ciencia. Moitas grazas Félix, e aínda que o tempo que empregaches en facer a túa contestación ao meu discurso non podo devolvercho, quedas exonerado de toda responsabilidade no que vaias dicir de min.

 

Aínda que o repetirei ao final, e con máis énfase, quero dicir xa que a xenerosidade desta Academia ao incorporarme a ela, verase correspondida, espero que con fartura, co meu empeño en perseguir un obxectivo tan loable e necesario como a promoción social do coñecemento e o desenvolvemento tecnolóxico; factor indispensable para contribuír ao benestar social e ao desenvolvemento socioeconómico de Galicia e do mundo.

 

Quero agradecer tamén á miña familia todo o que me deron, que foi todo. Aos meus pais, Francisca e Antonio, que sempre tiveron claro que na casa podía faltar calquera cousa, e de feito faltaron moitas, pero nunca a educación dos seus fillos, unha educación á que eles non puideron acceder, por certo. Ao meu irmán Camilo, persoa de bondade insuperable. A miña é unha familia moi humilde no económico pero humanamente afortunada. Unha familia que segue pensando que a educación e a honradez non nos poden abandonar xamais. A Maite, a miña muller, e aos meus fillos Mateo e Darío, que me dan cada día moito máis do que reciben, aínda que eu doulles todo o que teño e todo o que son, dedícolles este discurso e con eles vai o discorrer da miña vida.

 

A miña incorporación á Academia débese á miña traxectoria como científico da computación e en todo o que acheguei á ciencia e a tecnoloxía houbo tamén unha “familia” que o fixo posible. Os meus pais científicos foron o profesor José Mira Mira, tristemente falecido o 13 de agosto de 2008, e o profesor Ramón Ruiz Merino, codirectores da miña tese doutoral, coa que unín definitivamente a miña vida profesional á miña paixón: o estudo, a docencia e a investigación en Intelixencia Artificial. Ambos ensináronme tamén o que non está escrito nunha tese ou nos artigos científicos: a ser científico sendo primeiro persoa. Agradezo tamén todo o que me deron os meus discípulos científicos, moitos deles hoxe colegas, que foron unha fonte constante de ensino e de estímulo para min. Un profesor aprende máis como docente que como alumno e un investigador aprende máis ensinando a investigar e canalizando outras mentes á investigación, sobre todo se son máis brillantes que a súa, que afrontando en solitario os retos da súa investigación.

 

Os obxectivos compartidos e o día a día fan o agarimo, por iso quero acordarme moi especialmente da miña universidade, que é a miña uña e a miña carne; tamén de quen forma parte do CiTIUS, o Centro Singular de Investigación en TI onde desenvolvo o meu labor académico, e sobre todo do seu Grupo de Sistemas Intelixentes, que creamos hai máis de 25 anos co compromiso de facer investigación de calidade e poñela ao servizo da sociedade; dos emprendedores de grandes soños e pés en terra de SITUM Technologies, unha spin-off da USC da que son socio fundador; e de quen cada día dan vida a RedEmprendia, un soño compartido por 28 das mellores universidades do Espazo Iberoamericano do Coñecemento, que Banco Santander fixo e fai posible a través da súa División Santander Universidades.

 

Quero rematar estes agradecementos dicíndovos que síntome moi satisfeito e querido pola vosa presenza. A vida profesional é vida en todo caso, e esta nin se constrúe en solitario nin se fai para un mesmo, senón para os demais tamén. Por iso o que son débese en boa medida aos que aquí estades e o que entre todos representades, e o que fago ten valor se ten sentido para vós. Grazas aos que estades aquí e aos que quixesen estar pero non puideron.

 

Introdución ao discurso

 

Hai textos científicos, de divulgación científica, de ciencia ficción… este ten un pouco de todo e foi escrito un pouco para todos. Trata sobre as máquinas intelixentes, ou o que comunmente se chama Intelixencia Artificial (IA). Pode lerse só o pequeno relato de ciencia ficción do principio, que non ten nin máis nin menos aspiración que entreter e facernos pensar sobre o hoxe e o posible mañá das máquinas intelixentes. Neste texto é ficción o que se sitúa de hoxe en diante pero certo o que se conta cara atrás, como tamén o son as anotacións a pé de páxina do mesmo, que explican algúns conceptos ou achegan algúns detalles de actualidade. Finalmente, o lector realmente interesado na Intelixencia Artificial e nas súas máquinas debería ler a segunda parte do texto, que constitúe propiamente o meu discurso de ingreso na Real Academia Galega de Ciencias. Nel achégase unha visión xeral sobre a orixe da IA, ao seu discorrer no tempo, algunhas das súas implicacións, tanto científicas como socioeconómicas, e o seu previsible desenvolvemento nun futuro próximo. Ir máis aló dese futuro próximo fíxose só na parte inventada, onde o desatino ten cabida. Estamos pois, permítaseme a expresión, ante unha obra de “divulficción” científica.

 

Algún día, quizais antes do que imaxinei

 

Santiago de Compostela, 12 de febreiro de 2040

 

Eran as cinco e media da mañá. A habitación comezou a iluminarse como nun amencer. O cheiro e o rumor do mar alagaban o espazo e aos poucos fun abrindo os ollos. Busquei as lentes sobre a mesiña. Non estaban alí. De feito, facía anos que non usaba lentes, pero en moitas ocasións, ao espertarme, aínda repetía o mesmo xesto mecánico que realizara cada día durante tantos anos. Agora usaba retinas artificiais. Xa tivera outras antes, pero estas, ademais de permitirme ver moitísimo mellor, informábanme de canto vía. Sempre tiven problemas para lembrar o nome das persoas e non poucas veces pasei apuros por esquecementos incomprensibles. Agora os meus novos “ollos” identificaban a quen se atopaba ao seu alcance. E tamén me informaban dos edificios, as obras de arte… de todo ao meu redor, en definitiva. Ademais, advertían ao meu cerebro de posibles perigos dos que doutro xeito non sería consciente.

 

Saín da habitación tratando de non facer ruído para non espertar a Maite e chamei a Pascual, o noso robot de servizo doméstico. Incomódalle que alguén se refira a el como “robot” e prefire a expresión “asistente persoal”, pero realmente é un robot “antropomorfo”, con aparencia e comportamento humanos, aínda que non é dos máis modernos. Pascual subiu as escaleiras amodiño para non facer ruído e díxome que o meu almorzo estaba preparado.

 

Almorcei con calma á beira do mar. Un mar recreado artificialmente, é certo, pero dunha realidade abraiante. Facía pouco máis dun ano que instalaramos na casa un novo sistema envolvente de realidade integral co que é posible converter calquera lugar da casa, ou a casa enteira, noutra parte do mundo real ou mesmo de mundos imaxinarios. Ademais, os sons, incluso os cheiros, son case tan reais como as imaxes. Hoxe almorcei nas Illas Cíes pero desde unha illa inventada. Máis pequena que as reais e situada ao leste, cara á ría. Desde alí puiden contemplar na súa plenitude as illas Monteagudo, Montefaro e San Martiño. Mañá creo que almorzarei nas Fragas do Eume, mirando ao río.

 

Os meus fillos ían vir a comer, así que os robots de servizo estaban a preparalo todo. Pascual mesmo conseguira mel. Ás miñas netas encántalles o mel. O mel natural converteuse nun ben moi escaso. Os sistemas de comunicación desorientan ás abellas e só nos ESI poden sobrevivir. Recordo que cando oín esta explicación de Pascual pregunteille moi interesado que eran os ESI. Os Espazos Sen Intelixencia respondeume, coa satisfacción de saber máis que eu. Como non me gustou ese punto de soberbia que notei no seu ton de voz, díxenlle, con retranca, que supoñía que serían lugares sen “intelixencia artificial”,[1]  que era a que en todo caso podía perturbar o ir e vir das abellas. Preferiu ignorar o meu comentario e seguiu ao seu.

 

Os primeiros en chegar foron o meu fillo Darío e a súa familia. Viven en Bruxelas, capital dos Estados Unidos de Europa. Julia, a súa muller, é unha preciosa moza nacida en Nixeria. Anne, a filla de ambos, herdou a beleza da súa nai e ademais ten ese atractivo adicional das persoas que mesturan cores de pel e trazos de razas distintas. Ten sete anos e unha alegría desbordante. O mundo en que vivimos, que a min paréceme cada vez máis desconcertante, é para ela unha fonte constante de diversión, de estímulos e de experiencias positivas. Darío coñeceu a Julia en Lagos, fai dez anos. Fora alí nunha misión diplomática para reforzar os lazos de cooperación África-Europa.

 

Pouco despois chegou o outro fillo meu, Mateo, a súa muller, Lorraine e a súa filla Jord. Mateo e Lorraine, que é sueca, coñecéronse en Birmingham, mentres estudaban na universidade. Agora viven en Londres e traballan no departamento de I+D de Nanobots, unha empresa de fabricación de dispositivos microscópicos, aplicados fundamentalmente a temas de saúde.

 

Lorraine é especialista en circuítos neuronais para a comunicación cerebro-cerebro e cerebro-máquina. Algunhas das patentes máis importantes neste campo foron logros seus. Estas neuronas sintéticas, coñecidas como neuronas artificiais para comunicación externa, poden inxerirse en cápsulas e chegar a través da rega sanguínea ás zonas da cortiza cerebral para as que foron deseñadas. Unha vez alí establecen conexións sinápticas coas neuronas reais, dialogando con elas, igual que o fan o resto de neuronas entre si. A través destas neuronas sintéticas podemos acceder a calquera rede externa de comunicacións e tamén establecer diálogos con outras persoas mediante redes de comunicación interpersoal de curto alcance. Trátase dun dos avances máis incribles da humanidade. De feito, conseguiu desterrar o uso dos móbiles, antes omnipresentes. E o de desterrar nunca foi mellor devandito, xa que fóra da terra hai lugares onde as redes de comunicación interpersoal non operan e séguense usando algúns dispositivos antigos de comunicación. Tamén podemos conectarnos directamente coas redes de información mundiais. Só se necesita ter preto un punto de acceso universal ás redes, capaz de amplificar os sinais cerebrais e proxectalos a un mundo de dispositivos cuánticos, cunha velocidade e capacidade de almacenamento inimaxinables fai nada.

 

Jord ten doce anos. O seu nome significa en sueco, algo así como terra. É tímida, observadora e capaz de falar con gran coñecemento dos temas nos que traballan os seus pais. Ten unha curiosidade inesgotable, acentuada pola reprogramación cerebral á que foi sometida fai tres anos, tras un accidente de tráfico. Os vehículos actuais móvense de forma plenamente autónoma e non só se desprazan con seguridade por si mesmos senón que dialogan entre si e con todo tipo de dispositivos ao longo do seu percorrido. As probabilidades de ter un accidente redúcense a menos dunha por millón de vehículos ao ano, normalmente por causas alleas ás condicións propias do tráfico, como a invasión das vías por elementos estraños ou por actos de vandalismo ou sabotaxe. Precisamente, o accidente de Jord foi debido a unha sabotaxe. O coche no que ía cos seus pais foi alcanzado por un vehículo de carga, que contaba cun vello sistema de posicionamento espacial por satélites. Atravesando un longo e anticuado túnel, a falta de precisión na localización do vehículo de carga fixo que este golpease ao da miña familia, que circulaba en sentido contrario. Mateo e Lorraine non sufriron ningunha ferida de consideración, pero Jord levou un forte golpe na cabeza que lle provocou unha perda de memoria importante, sobre todo nos seus recordos da infancia. Para recuperar no posible esta información partiuse da memoria colectiva de quen estivemos máis próximos a ela desde o seu nacemento: familiares, amigos, profesores… Non todo o mundo colaborou. Á fin e ao cabo, non se sabe o que van saber dun nestes casos e o uso que poidan darlle a esa información. De toda a información reunida seleccionouse aquela da que Jord formaba parte, para logo restituíla no seu cerebro. Non toda a súa vida anterior foi recuperada nin foron só os seus recordos os que acabaron “enchendo” os ocos do seu pasado. Por iso é frecuente que ás veces non lembre cousas que nós temos moi presentes ou que en ocasións nos sorprenda ao saber algo insospeitado.

 

Os modelos de vehículos que hoxe se fabrican xa non teñen o problema da perda temporal de referencias emitidas por satélites, xa que incorporan sistemas de posicionamento desenvolvidos por SITUM Technologies, unha spin-off da USC creada en 2015. Hoxe SITUM é líder en servizos de localización de seres vivos e obxectos, permitindo o seu rastrexo, coñecer o histórico dos seus movementos ou predicir, mesmo, a súa situación futura. Do mesmo xeito que Google, que en poucos anos chegou a ser un impresionante conglomerado de empresas baixo o nome de Alphabet, SITUM diversificou a súa actividade desde case o seu nacemento e hoxe dispútalle á empresa de Mountain View a hexemonía mundial nas tecnoloxías do coñecemento e a intelixencia.

 

Ás miñas netas gústalles a casa, aínda que lles parece pouco menos que un museo da historia da humanidade. Todo son cousas inútiles para elas: os libros nos andeis, os vellos computadores de fai vinte ou trinta anos que aínda conservo, os álbums de fotos… e non digamos aqueles videoxogos que entusiasmaban aos seus pais, aos que elas chaman xogos primitivos de gráficos preholográficos.

 

Aquel día faleilles da primeira vez que tiven unha computadora nas miñas mans, fai máis de medio século, en 1983. Estaba a estudar na USC e inscribinme nun curso de introdución á programación. Aprendín a programar en “linguaxe máquina”, unha forma de programación tan básica que é case como comunicarse cunha persoa activándolle directamente neuronas da cortiza auditiva. Tamén había o que denominábamos linguaxes de alto nivel, aínda que o tipo de instrucións era extremadamente simple, de modo que para calcular algo tan sinxelo como o día da semana en que nacín a partir da miña data de nacemento, requiriríanse ducias ou centos de instrucións. Xa non digamos para lograr que un robot collese un obxecto brando sen destruílo.

 

O meu primeiro computador persoal compreino a finais dos anos 80. Tiña 64 Kbytes de memoria RAM e o seu prezo superou o duascentas mil pesetas. Ségueme parecendo incrible ver como cambiaron as cousas. Se pensamos que naquel momento paguei máis de tres pesetas por byte de memoria e comparámolo co que hoxe custaría o prezo dun byte, sería o mesmo que comprar agora un pantano polo prezo dunha botella de auga de entón.[2] A peseta, por certo, foi substituída no ano 2000 polo Euro e en 2025 polo eurobit, a moeda actual. Hoxe xa non se usan nin billetes nin moedas. O diñeiro e a maior parte do que se pode comprar con el é virtual.

 

Mentres esculcaban no meu despacho, Anne viu un teclado nun dos recunchos onde se apiñan ducias de cousas sen orde nin concerto. Preguntoume que era “esa caixa con letras e números na tapa”. Cando lle dixen que era un teclado e que non facía moito tempo usábase para escribir cousas nun computador, fose para programalo, escribir unha novela ou enviar unha mensaxe aos amigos, confesoume que non entendía o sentido de escribir letra a letra se se podía facer o mesmo falando.

 

Hoxe un libro ou unha mensaxe dítanse a unha máquina que os escribe por un. Mesmo podes darlle unhas directrices sobre o que queres escribir e a máquina, ás veces resolvendo as súas dúbidas contigo, faino automaticamente. Hai tempo que non se usan teclados nin ratos. O diálogo cos computadores, e en particular cos robots, realízase como con calquera outra persoa: de palabra, con xestos ou a través dunha comunicación directa cerebro-máquina.

 

Lembro as primeiras impresoras, rápidas como o raio [láser], pero infinitamente menos que as de agora, que ademais son capaces de imprimilo todo: calquera obxecto, de calquera forma, cheiro ou textura coñecida ou imaxinada. E viceversa, hoxe os escáneres poden captar e almacenar incluso a composición molecular de calquera obxecto. Pero o que máis me segue chamando a atención son os sensores dispoñibles a día de hoxe. Sensores para todo. Os “narices electrónicos”, por exemplo, permiten detectar unhas poucas moléculas de perfume sobre o céspede dun campo de fútbol. Hai anos foron moi eficaces para detectar drogas que eran ocultadas das formas máis imaxinativas.

 

Agora apenas hai drogas. Temos a capacidade de producir calquera dos seus efectos estimulantes, narcóticos ou alucinóxenos a través de dispositivos intracraneais de liberación controlada de sustancias exocerebrais. A fabricación e a comercialización destes dispositivos depende dos gobernos, pero isto non impide que exista un armazón ilegal ao redor destes dispositivos, que alcanzou unhas proporcións aínda maiores que os antigos cárteles da droga. A parte positiva é que estes elementos psicoactivos non teñen efectos negativos sobre a saúde das persoas que os utilizan. A negativa é que moitas persoas morren ou quedan con lesións cerebrais graves por utilizar dispositivos ilegais, con defectos de deseño ou fabricación e implantados en operacións realizadas sen o rigor e a hixiene necesarias.

 

Todos estes avances fixeron que a esperanza de vida para os recentemente nados sexa superior aos 150 anos. Nuns vinte anos é probable que as causas de morte natural deixen de selo. A pesar de que o número de nacementos é pequeno, os constantes avances científicos e tecnolóxicos fan que a poboación universal non pare de medrar. Cada vez hai menos espazo vital e a isto engádese a constante fabricación de robots, tamén chamados seres construídos, ou creados, e que consomen enerxía e ocupan espazo igual que os seres vivos. Pronto chegaremos ao límite do tolerable –o razoable xa hai tempo que foi excedido-, polo que hai algúns anos que se iniciou a colonización dos primeiros exoplanetas.

 

Os seres creados como humanos supérannos en case todas as tarefas, sexan de tipo físico ou intelectual. O test de Turing,[3]  enunciado hai case un século polo eminente matemático británico que lle deu nome, e que foi postulado como unha condición suficiente para poder afirmar que unha máquina é intelixente, superouse claramente desde fai máis dunha década, a finais dos anos vinte. Isto supuxo que quedase atrás a descontinuidade relativa ao enfrontamento entre persoas e máquinas, apuntada en 1967 por Bruce Mazlish, profesor emérito do departamento de Historia do Massachusetts Institute of Technology (MIT). Referíase á entón posible perda por parte do ser humano da exclusividade, incluso a hexemonía, entre os seres intelixentes. Foi exposta como “cuarta descontinuidade”, engadíndose ás tres descontinuidades entre o ser humano e o mundo indicadas por Freud na segunda década do século pasado. Segundo Freud, a primeira descontinuidade desapareceu con Copérnico e a súa teoría heliocéntrica, a segunda coa teoría da evolución de Darwin e a terceira da man do propio Freud e a psicoanálise, que nos fixo ver que non controlamos aquilo que ocorre no noso “subconsciente”.

 

Durante moito tempo crer ou non que era posible superar a “cuarta descontinuidade” foi case unha cuestión de fe, pero progresivamente os feitos avanzaron inexorablemente cara a esta “singularidade tecnolóxica”.[4] O que memorizamos, os nosos razoamentos lóxicos, a percepción ou a sensación de sede, responden á activación de neuronas máis ou menos específicas de zonas concretas do noso cerebro. Todo isto foise coñecendo cada vez con maior detalle, de modo que moitos destes mecanismos e o seu substrato electroquímico puideron ser reproducidos artificialmente nun alto grao. Ademais, a imitación do vivo non foi a única forma de achegar intelixencia a unha máquina. O mesmo que os avións ou os drones non voan como os paxaros, a intelixencia dun dispositivo non ten que estar soportada por neuronas e neurotransmisores ou polos seus equivalentes artificiais.

 

As nenas seguían esculcando polo despacho, prestándome cada vez menos atención. A pequena viu unha foto nun dos andeis que lle chamou poderosamente a atención. Sorprendeuse sobre todo pola roupa que levabamos quen saía nela e, máis aínda, por un home que desde unha cadeira de rodas despregaba un sorprendente sorriso nunha cara cun aceno permanente. Tratábase de Stephen Hawking, un eminente físico que visitara Compostela en 2008. Chegou para participar nun interesante programa da USC chamado “Conciencia”. Foi un dos físicos máis brillantes de todos os tempos e padecía unha das enfermidades máis crueis, a ELA. Naquela época esta enfermidade adoitaba acabar en poucos anos coa vida de quen a padecía. Hawking contraeuna de mozo, pero logrou convivir con ela durante décadas, aínda que con severas e crecentes limitacións. Hoxe coñécense as causas desta enfermidade das motoneuronas e existe unha vacina para ela, pero entón non tiña cura.

 

O profesor Hawking non só era un físico cunha enorme reputación, tamén tiña unha inusitada preocupación polos problemas do seu tempo e aqueloutros que pensaba que estaban por vir. Con frecuencia fixo públicas as súas reflexións sobre a existencia ou non de Deus, a sustentabilidade do planeta e os robots deseñados con fins militares. E facíao desde o seu limitado mundo e a pesar das súas extremas dificultades para comunicarse.

 

Un tema que lle preocupou especialmente foi o dun posible mal uso da Intelixencia Artificial, algo que sempre me resultou un tanto paradoxal, tendo en conta de que a súa única posibilidade de comunicación algo fluída dependeu case toda a súa vida da tecnoloxía e cada vez máis da IA, precisamente. En todo caso, é certo que el non cuestionaba per se as máquinas intelixentes e a necesidade de investigar no devandito campo, pero era consciente do poder destas máquinas e máis aínda dunha posible perda de control das mesmas a medida que se facían máis e máis autónomas. Preocupáballe especialmente o desenvolvemento de armas militares,[5]  e así o fixo saber reiteradamente. Desgraciadamente, nin a súa voz nin a de miles de prestixiosos investigadores foron atendidas por quen tivo nas súas mans a capacidade de evitar o que veu despois.

 

En 2028 tivo lugar unha guerra que evidenciou o fundamento de todas estas preocupacións. Iniciouse entre Estados Unidos e Rusia, polo control do Ártico, a principal reserva na Terra dalgúns dos minerais máis cobizados. Esta guerra librouse fundamentalmente con robots militares e por fortuna circunscribiuse fundamentalmente ao territorio polar. Por aquel entón a IA xa avanzara enormemente e sobre todo na súa aplicación militar, aínda que moitos dos dispositivos e das estratexias para dotalos de maior intelixencia e autonomía non estaban aínda suficientemente desenvolvidos nin depurados. Pero non importou. O fin de cada bando era gañar a guerra tratando de evitar no posible baixas humanas propias, polo que entendían xustificado calquera medio respecto diso. Iso fixo que se acurtasen todos os prazos e se eliminasen todas as cautelas e prevencións en relación ao uso das Armas Autónomas de Ataque. Avións non tripulados, robots de todas as formas posibles e coas armas máis mortíferas que un poida imaxinarse. Entre elas as bombas electromagnéticas, capaces de aniquilar toda a “vida artificial” na contorna, incluída a dos mesmos robots que as despregaban. Eran os kamikazes da época.

 

A forza bruta nas anteriores guerras foron a pólvora e a enerxía nuclear, pero esta vez a barbarie veu das máquinas bélicas. Todo estaba pensado para acabar co armamento do inimigo, tentando salvagardar ás persoas. Neste sentido, as máquinas para pelexar foran deseñadas de acordo coas “leis da robótica”, enunciadas case un século antes por Isaac Asimov, un dos grandes escritores de ciencia ficción de todos os tempos.[6]  Pero todo empezou a ir mal. A autonomía destes robots militares era tal que deixaron de obedecer ordes humanas e actuaron pola súa conta, tratando de preservar a súa integridade, aínda que isto supuxese aniquilar mesmo ás persoas. Reveláronse contra os seus creadores, como o fixo o personaxe do doutor Victor Frankenstein, no famoso libro da escritora Mary Shelley. De feito, esta atroz guerra tamén coñécese como a guerra de Frankenstein. Nalgúns casos producíronse sabotaxes que supuxeron a reprogramación do comportamento das máquinas, para que se volvesen mesmo contra os seus propios exércitos. O que se vía como unha “distopía” converteuse nunha cruel realidade. Foi horrible. Toda guerra éo, pero esta, pola capacidade destrutiva dos robots e polo seu comportamento, carente de calquera ética ou respecto pola vida, salvo a propia, foi a máis cruenta de cantas houbese xamais.

 

Cando estaba perdida toda esperanza de recuperar o control destas bestas artificiais, logrouse un acordo entre os contendentes e os exércitos convencionais comezaron a usar as súas armas contra as máquinas, ata destruílas por completo. Non foi nada fácil e perdéronse moitas vidas, pero esta vez os seres humanos gañaron a batalla á súa creación. A iso axudou o confinamento da guerra nunha rexión pouco poboada e remota. Quen sabe o que ocorrería de ser outras as circunstancias. A traxedia común logrou que ambos bandos acordasen unha “paz definitiva”, que polo menos durou ata hoxe. Acordaron tamén cancelar todos os programas de desenvolvemento de robots con fins militares e a destrución do arsenal que aínda existía. Non quero ser pesimista, pero témome, como xa ocorreu antes, que é cuestión de tempo que a estupidez humana repita erros esquecidos.

 

Por fin sentámonos á mesa. Ás nenas as nosas comidas non lles resultan especialmente agradables. Si lles gusta o feito de que esteamos xuntos, de falar e rir, pero non o comer.

 

 

Eran as cinco e media da mañá cando me espertei. Busquei as lentes sobre a mesiña. Non estaban alí. Levanteime e localicei ás apalpadelas o móbil, que soaba sobre unha pequena mesa accesoria. Tamén atopei alí as miñas lentes. Saín da habitación sen facer ruído para non espertar a Maite e baixei as escaleiras mentres oía como a choiva batía con forza sobre o tellado. Acendín a radio e preparei o almorzo. Ao ver o queixo sobre o pan tostado lembrei o estraño soño que tivera. Deixei de prestar atención ás noticias para mergullarme na historia soñada. Os meus soños foron sempre, polo menos que eu lembre, soños de tempos vividos ou situados nun futuro próximo. Ás veces sobre feitos reais, máis ou menos recreados no meu cerebro, outras tan absurdos, tan sen pés nin cabeza, que parecíanme arrepiantes ao lembralos na mañá. Pero esta vez fora moi distinto. Soñara que tiña bastantes anos máis. Que o mundo non era como agora. Que todo estaba automatizado, os robots convivían connosco e mesmo podían ser nós mesmos. Eran seres construídos en lugar de concibidos, pero eran como nós. Soñei que nos comunicabamos sen necesidade de falar e que eramos capaces de crear mundos tan vívidos como o noso. Todo o que logrei lembrar deixoume perplexo. De feito, fixen esforzos por non esquecer ningún detalle, sobre todo da conversación coas miñas dúas netas, Anne e Jord. Se algún día nacen e teño a ocasión de falar con elas, direilles que souben tempo atrás que virían a este mundo e que xa entón imaxinei como sería o seu.

 

Terminei o almorzo e púxenme a traballar. Estaba a escribir o meu discurso de ingreso na Real Academia Galega de Ciencias, que titulei: Poden pensar as máquinas? Levaba días traballando intensamente nel e estou seguro de que o meu soño construíuse inconscientemente a partir dese discurso. Algún día decidir o que soñamos tamén deixará de ser un soño.

 

 

  1. Poden pensar as máquinas?

 

Un dos traballos que máis repercusión tivo no ámbito da Intelixencia Artificial foi o que Alan Turing publicou en 1950 na revista Mind: “Computing Machinery and Intelligence”, que comeza así: “I propose to consider the question, Can machines think?“. De aí, e como tributo a Turing, elixín o título deste discurso. Un título que expón, aínda hoxe, unha das preguntas máis apaixonantes que podemos facernos.

 

Segundo o DRAE -Dicionario de la Real Academia Española-, pensar ten entre as súas acepcións a de examinar con coidado algo para formar ditame; tamén significa discorrer, que á súa vez defínese como inferir na súa segunda acepción; e reflexionar -pensar, falar acerca de algo, aplicar a intelixencia-, como sexta acepción. Inferir é sacar unha consecuencia ou deducir algo doutra cousa -primeira acepción do termo-.

 

Se seguimos este fío de significados e nos preguntamos se poden pensar as máquinas, teriamos que responder afirmativamente, xa que, convenientemente deseñadas, as máquinas poden emitir opinión ou xuízo sobre un tema baseándose no coñecemento e a información da que dispoñen sobre o mesmo. Nada di que isto deba facerse de modo consciente. Por tanto, deberiamos poder afirmar que pensa un sistema experto para o diagnóstico de enfermidades cardiovasculares ou para a concesión de créditos bancarios. Tamén o fai un programa informático baseado en lóxica cando demostra un teorema e un robot autónomo cando decide a ruta que ten que seguir ao detectar un obstáculo no seu camiño. Evidentemente, é un pensar baseado en intelixencia artificial.

 

Son consciente de que o que agora lles vou a dicir é unha interpretación persoal, pero paréceme que cando Turing se preguntou se as máquinas podían chegar a pensar algún día, usaba un acto de fala directivo para provocar argumentos a favor dun si como posibilidade de futuro e ao tempo estimular que se seguise avanzando na procura de novo coñecemento e no desenvolvemento tecnolóxico, coa idea de que algún día os resultados lograsen facelo realidade. Eu penso o mesmo.

 

En todo caso, nin Turing, nin quen investiga en IA, nin a maior parte da xente, penso eu, diriamos que a día de hoxe esta pregunta ten como resposta un si rotundo. Aínda que non saibamos que é pensar -o neurobiólogo Rafael Yuste, líder do Proxecto BRAIN, dixo que se daría por contento se conseguísemos entender “que é un pensamento”-, cando nos preguntamos se as máquinas pensan ou poderán chegar a facelo algún día, utilizamos como referencia non tanto o proceso de pensar, aínda descoñecido, como o seu resultado. De feito, isto é o que asumiu Turing ao enunciar o seu famoso test. Por iso podemos dicir que as máquinas pensan mellor cada día, na medida en que son capaces de imitarnos ou superarnos en tarefas que asociamos co acto de pensar e, en xeral, coa intelixencia, e cada vez en maior medida. Aínda que non saibamos definir formalmente que son ambas as dúas cousas, a comparación cos seres vivos, particularmente cos humanos, é un bo camiño a seguir.

 

Penso, por tanto, que preguntarse se poden pensar as máquinas só ten sentido se buscamos darlle unha resposta positiva, pero non polo desexo sen máis de que así sexa ou por mera especulación. Pensemos en como os seres vivos, en particular os seres humanos, chegamos a desenvolver o que denominamos intelixencia. É seica o fin da evolución crear a intelixencia e desenvolvela cada vez máis? Na evolución das especies non hai un fin. Non se busca unha meta. Non é correr máis, consumir menos, voar ou respirar o obxectivo. Simplemente non hai obxectivos. A evolución é o medio para todo iso. Se algo novo é bo para adaptarse mellor á contorna e para reproducirse con máis éxito, permanece; noutro caso desaparece. Tampouco o río ten como meta chegar ao mar. A auga non ten metas, aínda que teña destinos. A auga, debido á gravidade, sempre busca o punto máis baixo posible no seu discorrer, de modo que ou se estanca ou avanza inevitablemente cara ao mar. Por iso hai ríos que dan mil voltas antes de alcanzar o mar.

 

Unha máquina, pola contra, deséñase cun propósito e cada unha das súas partes responde a unha necesidade e realiza unha función no conxunto dun sistema máis ou menos complexo. Pode non ser un deseño óptimo para o que se busca, pero responde a un propósito claro desde o seu mesma concepción. Por iso os avances do sintético son ás veces tan rápidos e espectaculares. No mundo da computación e do computable cada avance serve para camiñar cara a logros aínda maiores. Os computadores de onte permitiron chegar aos computadores de hoxe e estes son os que farán posible os computadores de mañá, e tamén todo o que se construirá en base a eles.

 

A evolución necesita miles e miles de anos para facer dun ser vivo un ser apreciablemente máis intelixente que os seus predecesores. A ciencia e a tecnoloxía crean a cada momento máquinas que superan claramente ás anteriores. Por iso a intelixencia de persoas e máquinas chegará a ser comparable algún día non moi afastado. Salvo que nos estanquemos, como a auga que finalmente non chega ao mar.

 

A percorrer ese carreiro dedícase a Intelixencia Artificial (IA), unha disciplina recente, comparándoa con outros campos do saber, pero incriblemente rica en feitos relevantes e que está a ter xa un gran impacto social e económico. A pesar da súa mocidade, a IA diversificouse enormemente, do mesmo xeito que outras disciplinas especialmente dinámicas, como a xenética moderna. A infinidade de ámbitos propios ou moi relacionados coa IA, abarca tanto as vertentes máis teóricas e instrumentais: computación neuronal, computación flexible, aprendizaxe en máquinas, minaría de datos, razoamento lóxico… como as máis diversas aplicacións: robótica, visión artificial, tradución automática, procesamento de sinais… Son tantas hoxe as parcelas temáticas da IA, en número e diversidade, que resulta imposible o seu tratamento aquí, nin sequera limitándome a realizar referencias superficiais a elas. No seu lugar, buscarei interesar a un espectro amplo de lectores, aos que poida atraer formulándome algunhas das preguntas máis recorrentes, incluída a que dá título a este discurso: Que é a Intelixencia Artificial? Como podemos saber se unha máquina é intelixente? Son parecidos un cerebro e un computador? Pode haber intelixencia sen aprendizaxe? Vivimos xa nun mundo robotizado? Como afectarán as máquinas intelixentes ao emprego?…  Son preguntas que non se limitan aos aspectos científico-tecnolóxicos senón que inclúen ademais moitos outros aspectos humanos: sociais, económicos, éticos… O día que esquezamos a dimensión humana do que facemos, en particular desde a investigación, o desenvolvemento tecnolóxico e a educación, seremos as persoas as que nos volveremos frías máquinas.

 

Empezarei por falar dos computadores. A historia da Intelixencia Artificial non pode desvincularse da evolución destes. Facelo sería como repasar a historia da Fórmula 1 sen falar de motores.

 

 

  1. Evolución dos computadores

 

Case desde as nosas orixes, os seres humanos tentamos realizar artefactos que superen as nosas capacidades físicas -correr, nadar, levantar pesos…- e mentais -almacenamento e recuperación de información, cálculo…-. Mesmo tratamos de lograr aquilo para o que a natureza non nos dotou nin minimamente -voar, respirar baixo a auga…-. A tecnoloxía déixanos ver o máis pequeno e o máis afastado, oír o que ninguén máis pode oír e unha infinidade de cousas máis. Esa tecnoloxía está cada vez máis amalgamada cos computadores, pero estes, en particular, permiten ampliar as capacidades do noso órgano máis complexo e descoñecido: o cerebro. Se as anteriores revolucións industriais forxáronse mediante máquinas que ampliaron as nosas capacidades físicas, agora son as máquinas intelixentes as que nos levan a unha nova revolución, ampliando tamén as nosas capacidades mentais. O lema da revolución industrial ben podería ser o mesmo que o dos xogos olímpicos: “máis alto, máis forte, máis lonxe”. O desta era da computación e das máquinas intelixentes necesita outro: “máis rápido, máis barato, máis pequeno”, e tamén “máis intelixente”.

 

Non ten obxecto aquí facer un percorrido histórico polo mundo da computación, para o que hai magníficos estudos a disposición do lector [Ceruzzi, 2003; Williams, 1997]. En todo caso, penso que vale a pena citar algúns dos fitos e, sobre todo, a quen os logrou. Á fin e ao cabo, ningún avance é máis interesante que quen o fixo posible.

 

Como son tantos, quedarei só con tres: Charles Babbage, Alan Turing e John von Neumann. Recoñezo que é unha decisión absolutamente persoal. Poderían ser trescentos ou ser tres totalmente distintos.

 

Charles Babbage (1791-1871) foi un matemático e científico da computación británico. Fixo enormes achegas ao deseño das máquinas de cálculo, que na súa época eran completamente mecánicas, xa que a tecnoloxía do momento non permitía outra cousa. Por aquel entón eran comúns e moi utilizadas as táboas matemáticas, que recollían desde cálculos simples, como multiplicacións, a outros bastante máis complexos de obter, como as táboas de logaritmos. Estas táboas, ademais de ser moi laboriosas de obter e de uso complicado, contiñan numerosos erros. Babbage propúxose deseñar un dispositivo mecánico que automatizase a realización de operacións aritméticas básicas, a partir das cales se puidesen facer cálculos máis complexos. O seu primeiro avance nesta liña foi o deseño da súa máquina de diferenzas, baseada no método de diferenzas de Newton para obter os valores das funcións polinómicas a través de simples operacións de suma e resta. Aínda que non chegou a concluír a súa realización, o Museo da Ciencia de Londres construíu integramente unha máquina de diferenzas número 2 con motivo da celebración do segundo centenario do seu nacemento. Para iso seguiu os planos deixados por Babbage, sobre os que non houbo máis que corrixir algúns erros menores.

 

Babbage abandonou a súa máquina de diferenzas para centrarse noutra moito máis sofisticada e versátil: a máquina analítica, baseada en técnicas de funcións por polinomios e tramos, que tampouco rematou. A máquina analítica introduciu a visión dos computadores como sistemas de cálculo aritmético e lóxico controlados por programas. A capacidade de introducir datos e instrucións mediante cartóns perforados, a incorporación de rexistros para o almacenamento de datos sobre os que operar ou o uso dun sistema de control interno para activar os distintos elementos implicados en cada operación, son algúns exemplos dunha arquitectura asombrosamente avanzada para a época e que puxo as bases para o desenvolvemento da computación nos inicios do século XX.

 

Alan Turing (1912-1954), tamén británico, foi un matemático brillante, que puxo parte dos cimentos da hoxe omnipresente computación, realizando grandes achegas á intelixencia artificial -súas son as primeiras aproximacións ao que hoxe son as redes neuronais artificiais, os algoritmos xenéticos ou a vida artificial-. Tamén contribuíu dun modo definitivo ao descifrado das mensaxes militares alemáns durante a Segunda Guerra Mundial. A película de 2014: “The Imitation Game” –título traducido como “Descifrando Enigma”-, serviu para dar a coñecer ao gran público a Turing. En concreto pola súa contribución á realización dunha máquina electrónica, denominada Colossus, que permitiu descodificar as mensaxes que os alemáns cifraban a través da súa complexa máquina Enigma,[7] algo que tivo unha enorme relevancia no discorrer da guerra a favor dos aliados [Copeland, 2012].

 

Desgraciadamente, de nada serviron os seus méritos e a súa enorme contribución á humanidade fronte á súa condición de homosexual. Ser gai supúxolle o desprezo da sociedade da época e a condena a ser castrado quimicamente. Quince anos máis tarde as prácticas homosexuais deixaron de ser delito no Reino Unido, pero para Turing xa foi tarde. Suicidouse en 1954, envelenándose con cianuro. Aínda foi a finais de 2013 cando lle chegou o indulto da raíña Isabel II, case 60 anos despois da súa morte [Barro, 2014].

 

En 1937 Alan Turing publicou nas actas da Sociedade Matemática de Londres un artigo titulado: “On computable numbers with an application to the Entscheidungsproblem”. Trátase, sen dúbida, dunha das contribucións máis transcendentes do ámbito da lóxica matemática e a computación. Neste artigo descríbese unha máquina hipotética, coñecida desde entón como “máquina de Turing”, cuxas accións limítanse a ler o contido dunha cela e deterse; borrar un símbolo e escribir un novo; ou ler unha cela e moverse cara á esquerda ou a dereita. Ao ler un símbolo a máquina responderá cunha acción, en función do símbolo recoñecido e o estado interno da máquina nese momento. Deste xeito, a resposta ante dous símbolos idénticos en diferentes momentos pode ser distinta, dependendo do estado interno da máquina en cada un dos instantes. Para entender ben este comportamento é moi ilustrativo o exemplo dun bolígrafo de émbolo. Unha mesma entrada ao “sistema bolígrafo”, como é pulsar o seu émbolo, pode provocar respostas distintas do mesmo: que a punta salga ou que entre, en función, á súa vez, dos dous estados internos do bolígrafo, que son ter a punta dentro ou fóra, respectivamente.

 

A máquina de Turing é dunha gran sinxeleza no seu funcionamento, pero dunha extraordinaria capacidade de resposta. Algo tan simple permite resolver case calquera problema matemático ou lóxico que se nos ocorra, incluso utilizando unicamente un código binario. Un formado só por uns e ceros, por exemplo. Aínda máis sorprendente resulta o feito de que cando Turing deseñou conceptualmente esta máquina non existía ningún dispositivo real que puidese asemellarse a ela -unha aproximación podía proceder das máquinas de Babbage-. Hoxe resulta evidente que a máquina de Turing é basicamente un computador actual, no que a cinta é a memoria de propósito xeral, capaz de almacenar datos e instrucións, e o dispositivo de lectura/escritura é a unidade de procesamento. A máquina de Turing é, de feito, unha formalización do concepto de algoritmo, independente de calquera que sexa a realización ou implementación práctica do mesmo. Partindo da tese de Church, que indica que toda función efectivamente computable é computable por recorrencia, Turing demostrou que calquera función computable por recorrencia pode ser computada en tempo finito pola súa máquina. Así, un problema dise computable si para el existe un algoritmo e, xa que logo, unha máquina de Turing que o resolva. Non todos os problemas poden resolverse cunha máquina de Turing, en todo caso, xa que hai problemas insolubles algorítmicamente.

 

John von Neumann (1903-1957), estadounidense de orixe húngara, foi un dos máis reputados matemáticos do século pasado, con contribucións de enorme relevancia en diversos campos das matemáticas, a física e a economía. En particular, as súas contribucións foron claves para o nacemento da teoría de xogos. Cando o Premio Nobel de Economía John M. Nash[8] estivo en Santiago de Compostela en 2007, participando no programa Conciencia, falamos de von Neumann. Nash comentoume a excepcional achega de von Neumann ao campo, algo que reflectiu tamén nunha dedicatoria que escribiu nun libro de von Neumann a petición miña. Unha dedicatoria escrita desde a admiración a von Neumann. O libro en cuestión é “O computador e o cerebro”, tradución ao galego do orixinal “The Computer and the Brain” [von Neumann, 2006], do que eu tiven o privilexio de facer o prólogo. Nesa dedicatoria o profesor Nash referiuse á súa propia tese doutoral, base das súas excepcionais achegas á teoría de xogos e aos procesos de negociación, polas que obtivo o Premio Nobel en 1994 -por certo, a súa tese tiña tan só 27 páxinas-. Fíxoo indicando que a única referencia bibliográfica desa tese, ademais dunha autocita, é a un libro de John von Neumann e Oskar Morgenstern [1944]. Sen dúbida, unha proba máis da extraordinaria novidade e importancia da contribución de von Neumann a este campo.

 

Von Neumann tivo unha moi relevante contribución ao proxecto Manhattan para o desenvolvemento da bomba atómica. Sen embargo, rexeitou participar no proxecto para desenvolver o FORTRAN, alegando que ao dispoñer da linguaxe máquina non era necesario unha linguaxe de programación de alto nivel. Menos mal que a maior parte das súas outras decisións foron acertadas e iso permitiulle facer algunhas das contribucións máis relevantes aos cimentos da computación actual. En particular, a formalización do funcionamento dun computador nunha arquitectura que leva o seu nome e que se estrutura ao redor dos seguintes postulados: a presenza de catro módulos básicos -a unidade de cálculo, a unidade de control e memoria e as unidades de entrada e saída-; a secuencialidade das operacións e a unicidade do procesador; o procesamento simultáneo de instrucións e datos; o concepto de programa almacenado; e a presenza dunha canle de datos e instrucións para conectar os módulos que integran o sistema. Esta arquitectura foi presentada nun artigo de von Neumann que deu lugar a agres disputas con algúns dos seus colegas da Universidade de Pensilvania, ao acusalo estes de apropiarse en exclusiva de moitas ideas comúns. O certo é que a pesar dos enormes avances no deseño de computadores, estes seguen funcionando en boa medida segundo a arquitectura von Neumann.

 

 

  1. Xeracións de computadores

 

Ata hai uns anos foron as tecnoloxías propias do hardware as que condicionaron fundamentalmente o avance dos computadores, ata o punto de que se recoñecen catro xeracións de computadores ligadas a outros tantos fitos relacionados co seu hardware. Quizais deberiamos distinguir algunha máis, en particular a asociada aos sistemas multiprocesador nun único chip -tal como se indica na táboa I-.

 

A tecnoloxía actual parece ter unha vida limitada e xa empezan a albiscarse outras vías de avance, ben da man de novos materiais, como o grafeno, ou doutro tipo de elementos de procesamento, como os dispositivos cuánticos. Con todo, non debemos confundir a capacidade de computación dunha máquina coa súa intelixencia. O supercomputador máis potente actualmente non será moito máis intelixente que o máis simple dos computadores persoais se ambos se programan para a resolución de ecuacións diferenciais, poñamos por caso. Será incriblemente máis rápido, pero non moito máis intelixente, insisto. Precisamente por iso, e aínda que as novas arquitecturas de computación e os avances na tecnoloxía que soporta a súa implementación seguirán achegando moitas novidades e melloras constantes, quixen reservar unha xeración, que chamarei “S”, para avances máis cualitativos que cuantitativos. Unha xeración que en todo caso seguirá camiñando en paralelo cos avances do que denominamos hardware, sexa de base electrónica ou non.[9] Esta xeración de computadores virá sobre todo da man do software e, máis concretamente, daquel que asociamos coa IA, en particular co que se identifica co “aprendizaxe en máquinas”. Debido á súa extraordinaria importancia, regresaremos despois, e con certo detalle, a este tema.

 

 Xeración Intervalo temporal Elementos básicos de deseño Avances na programación Dispositivos comúns para o almacenamento de datos Introdución de novos periféricos de entrada e saída de datos Avances no tipo de procesamento Exemplo Usuarios intensivos Tamaño
Primeira 1940-1955 Tubos de baleiro Linguaxes máquina Tambores e cintas magnéticas Tarxetas perforadas Por lotes UNIVAC-I Científicos Piso
Segunda 1956-1963 Transistores Linguaxe ensamblador e linguaxes de alto nivel Núcleos e discos magnéticos Teclado e monitor Tempo compartido Digital Equipment Corporation PDP-8 Técnicos especializados Habitación
Terceira 1964-1970 Circuítos integrados Orientada a obxectos Discos magnéticos Rato Distribuído IBM360 Usuarios especializados Armario
 

Cuarta

 

 

1971-1981 Circuítos integrados VLSI (microprocesadores en particular) Orientada a obxectos e a aplicacións Floppy Impresora láser Multiprocesamento IBM-PC,CRAY-1 Usuarios con nocións básicas Mesa
Quinta

 

1982 - Multiprocesadores Paralela CD-ROM, DVD, Memoria Flash Impresoras 3D Paralelo masivo CRAY T3D

 

Todos  os anteriores, segundo o dispositivo e ademais de “peto” no referente ao tamaño
Outras, aínda por vir ¿-? Procesadores ópticos, cuánticos, xenéticos… Adaptada a cada tecnoloxía 3D-Electrónica, holográfica…- Multisensorial Propio de cada tecnoloxía Non dispoñible Pasarán polas mesmas etapas que os computadores electrónicos
S ¿-? Software Orientada á aprendizaxe Molecular, orgánica Interfaces en linguaxe natural IA distribuida Non dispoñible Universal Interfaces coa nube móbiles e robots

 

 

Táboa I: Distintas xeracións de computadores e algúns dos feitos máis destacados que as acompañaron ou que poderían facelo nas que aínda están por vir. Fonte: elaboración propia con algunhas referencias a contidos da entrada de Wikipedia: “Computer” (https://en.wikipedia.org/wiki/Computer).


  1. Intelixencia Artificial (IA)

 

Definir a Intelixencia Artificial é polo menos tan difícil como definir a intelixencia sen máis.[10] Nos abundantes libros e artigos dedicados á IA aparecen definicións para todos os gustos. É máis, os obxectivos de especial interese para a IA foron cambiando co transcurso do tempo. Russell e Norvig [2010] establecen unha clasificación relativa aos distintos enfoques da IA, que se mostra organizada en dous eixos na figura 1. O eixo de abscisas indica o referente considerado: persoas ou seres racionais. Ao falar de seres racionais non debemos pensar na semántica usual de “racional”, xa que iso levaríanos á incongruencia de supoñer que os seres humanos non o somos -aínda que nalgúns casos sexa certo, dito sexa de paso-. Realmente, a racionalidade dos seres identifícase neste caso con facer o que é correcto, en sentido estrito. Pola súa banda, o eixo de ordenadas indica a acción a modelar: pensamento ou actuación. O pensamento fai referencia a procesos mentais e ao razoamento, mentres que a actuación refírese á conduta.

 

Os catro cuadrantes da figura 1 comezan co “modelado cognitivo”, no que búscase ou pártese de teorías da mente -achegadas por introspección, caso da filosofía da mente, ou por experimentos psicolóxicos, como na psicoloxía cognitiva-. O pensamento racional fundaméntase nas “leis do pensamento lóxico”, que arrincan do filósofo grego Aristóteles (384 a.C. – 322 a.C.) e a súa procura da maneira correcta de pensar a través de procesos de pensamento irrefutables -primando a verdade-. A síntese do modo de actuación humano ten a súa meta no coñecido test de Turing, que logo se expoñerá en detalle, e que define unha conduta intelixente como aquela capaz de “enganar” a quen faga de xuíz nun proceso de discriminación entre persoas e máquinas. Finalmente, o cuarto e último cuadrante, de claro predominio no campo a día de hoxe, céntrase na actuación racional dos sistemas intelixentes, entendida esta como a actuación encamiñada a lograr unha serie de obxectivos baixo certas restricións de operación -primando a utilidade-.

 

Como todas as disciplinas do saber, a IA tivo períodos de luces e sombras (táboa II). Durante a reunión no Dartmouth College no ano 1956, considerada como o nacemento oficial do campo, fixéronse previsións a poucos anos vista que resultaron claramente excesivas. Estas expectativas frustradas foron unha das causas, senón a principal, dunha época posterior de tebras.[11] A seguinte táboa destaca distintos períodos na evolución da IA, nos que se van alternando eses claros e escuros, e que, en todo caso, mostran un perfil evolutivo de resultados e/ou expectativas parecido ao de moitas outras disciplinas do coñecemento e a tecnoloxía.

 

 

 

 Como persoas

 

 Racionalmente

 

Pensan Modelado cognitivo Leis do pensamento lóxico 

 

 

Actúan Test de Turing

 

Axentes racionais

 

 

Figura 1: Distintos enfoques da IA e a súa evolución temporal –as frechas indican a evolución dos obxectivos do campo ao longo do tempo-. Fonte: Elaboración propia a partir de Russell e Norvig [2010].

 

A pesar dos constantes avances na IA, e de estar agora atravesando un momento doce, este campo aínda non explotou con todo o potencial que se lle atribúe. Na miña opinión apenas avanzamos na clave de bóveda da IA, que é a aprendizaxe en máquina. Ademais, necesítanse métodos formais novos para describir e deseñar o “sistema nervioso” de máquinas que cheguen a ser realmente intelixentes. É dicir, cunha intelixencia comparable á dos seres humanos, polo menos na resolución de tarefas complexas, non baseadas na forza bruta do cálculo intensivo.[12]  Necesitamos que as máquinas aprendan e que sexan capaces de desenvolverse en linguaxe natural para lograr así avances máis rápidos que os que nos achegan os progresos en arquitecturas de computación ou as novas tecnoloxías aplicables ao campo, incluída a computación cuántica.

 

En todo caso, aínda que a IA non progresou o que se prognosticou nos seus primeiros anos de vida, o certo é que moitos empeñáronse en situala fronte a retos “hercúleos”, en múltiples dominios e variados en grao sumo. De feito, a IA encárgase en gran medida da maioría das cousas que aínda non teñen unha boa solución computacional. Chegouse a dicir que cando un problema está resolto deixa de ser patrimonio da IA. Mesmo hai quen pensa que se algo funciona non é IA, mostrando así un claro desprezo polo campo. Pero o certo é que a IA achega cada vez máis resultados prácticos e rendibles. Sirvan de exemplo os que a revista Science considerou como grandes avances científicos do ano 2014. O primeiro foi a misión Rosetta, que culminou cunha sonda a lombos dun cometa. A parte máis importante deste dispositivo, e tamén de toda a misión, tanto en terra como no espazo, é o software, que ademais achega a “intelixencia” á sonda. Se seguimos analizando a lista veremos que hai nela outros dous logros específicos do campo das máquinas intelixentes: os robots Termes, que operan cooperando, inspirados no comportamento das formigas; e o chip de IBM TrueNorth, que imita o funcionamento cerebral humano. Pola súa banda, o consello de expertos en Tecnoloxías Emerxentes do Foro Económico Mundial, citando as dez tecnoloxías emerxentes para o 2015, inclúe catro “fillas da IA”: Robótica de última xeración; intelixencia artificial emerxente; drones completamente autónomos; e tecnoloxía neuromórfica.

 

 

 

Período Comportamento Visión xeral do período
1940 – 1955 Primeiros pasos prometedores Primeiras achegas desde distintas disciplinas: matemáticas, física, economía, computación…
1956 -1973 Arranque moi optimista Acúñase o termo “Intelixencia Artificial” e existe un gran e xeneralizado optimismo ao redor dos posibles logros no campo, mesmo a curto prazo prodúcense investimentos en I+D moi significativos para a época.
1974 – 1980 Estancamento –primeiro “inverno da IA”- Apréciase a enorme complexidade do campo, en particular no referente a reproducir as habilidades sensomotoras dos seres vivos.Avances significativos en problemas ben definidos, como o xogo do xadrez, pero non en ámbitos como a percepción visual.

As pobres prestacións dos computadores da época supoñen serias limitacións ao avance no campo.

As grandes expectativas que existían  e o seu escaso cumprimento deron lugar a recortes moi importantes nos investimentos.

1981 – 1987 Recuperación Prodúcense avances significativos nalgúns campos, como en computación neuronal, robótica, sistemas baseados en coñecemento… Mantense certa cautela sobre os posibles avances a curto e medio prazo.
1988 – 1993 Declive –segundo “inverno da IA”- Fracasan grandes proxectos como o computador xaponés de 5ª xeración,  tras investir nel uns 400 millóns de dólares (1992).Algúns investigadores propoñen un novo enfoque para a IA, baseado na robótica, coa idea de que “sen corpo” non se avanzará significativamente na intelixencia das máquinas.
1994 – 2010 Relanzamento Avances moi significativos nas prestacións dos computadores e os sistemas robotizados -sensores, efectores…-.Desenvólvense novos paradigmas de computación, como os axentes intelixentes, que permiten abordar solucións parciais de problemas complexos.

Penetración progresiva da IA na industria e o mercado.

2010 - Ambición e realismo Volve haber un gran optimismo ao redor da IA e as súas potenciais aplicacións. Existe, con todo, unha visión moito máis pragmática, tanto por parte dos investigadores como das empresas.A IA está cada vez máis presente nos produtos e servizos, incluso os de uso común, como os móbiles, dispositivos de vestir, videoxogos…

 

Táboa II: Distintas etapas ao longo da historia da IA. Fonte: elaboración propia con algunhas referencias a contidos da entrada de Wikipedia: “History of artificial intelligence” (https://en.wikipedia.org/wiki/History_of_artificial_intelligence).


Ao contrario que na física, dificilmente a IA contará cun Newton ou un Einstein. Necesitamos moitos deles, de feito, xa que non falamos dun terreo que podamos sintetizar en leis proxectables a ecuacións matemáticas, que nos permitan, sen máis, explicar o que ocorre e predicir o que vai ocorrer. Por iso a IA non só non avanza en liña recta senón que o fai a través de múltiples liñas crebadas. Lembremos o que dicía Alan Turing ao final do seu famoso artigo “Computing Machinery and Intelligence” [Turing, 1950]: “We may hope that machines will eventually compete with men in all purely intellectual fields. But which are the best ones to start with? Even this is a difficult decision. Many people think that a very abstract activity, like the playing of chess, would be best. It can also be maintained that it is best to provide the machine with the best sense organs that money can buy, and then teach it to understand and speak English. This process could follow the normal teaching of a child. Things would be pointed out and named, etc. Again I do not know what the right answer is, but I think both approaches should be tried”.

 

 

  1. Carbono versus silicio

 

Desde que os computadores existen e conforme foron aumentando as súas prestacións, comparáronse cos sistemas nerviosos dos seres vivos e, sobre todo, das persoas. Máis aínda cando a computación alcanza algún novo fito, como foi gañarlle ao campión do mundo de xadrez. Moitas das comparacións carecen de rigor, por compararse o que é ben distinto ou por partir de supostos ou cálculos sen fundamento.

 

Tentando comparar o comparable e aclarar o que non o é, polo menos non de forma directa, a táboa III sintetiza as principais diferenzas entre un cerebro humano e os computadores, entendidos ambos os dous como sistemas de procesamento de información. Nalgúns casos referirémonos a computadores específicos, xa que se ben entre os cerebros das persoas non hai tantas diferenzas, polo menos desde un punto de vista fisiolóxico, entre os computadores hai diferenzas enormes nas súas capacidades de cálculo e de memoria, por exemplo.

 

O cerebro humano aínda é unha máquina moito máis poderosa en conxunto que o máis potente dos computadores. Pero é só cuestión de tempo. A evolución requiriu millóns de anos para deseñar os nosos cerebros e só unhas décadas bastaron para pasar de poder realizar uns miles de cálculos por segundo a moitos miles de billóns. Hai tempo que o campión do mundo de xadrez aliméntase de voltios [Barro, 1997] e que as explosións atómicas xa non se fan con plutonio ou uranio senón con silicio, no interior dos supercomputadores. Con todo, toda esta forza bruta non é suficiente, e ata poida que non sexa necesaria, para resolver situacións que o noso cerebro atende constantemente: coñecer e usar unha ou máis linguas, identificar o que entra polos nosos ollos ou facer simplemente un debuxo. Máis capacidade de cálculo non supón necesariamente máis intelixencia artificial.

 

 

Elemento de comparación Cerebro Computador
Tamaño Aproximadamente 1.500 cc 720 m2 de superficie ocupada e máis de 100 toneladas de peso (2)
Transmisión de información e conmutación[13] ElectroquímicaLenta –en m/seg-

Conmutación neuronal en milisegundos

EléctricaMoi rápida –en miles de km/seg-

Conmutación de dispositivos electrónicos –transistores- en picosegundos

Consumo de enerxía[14] 20 watts (1) 17,6 MW -24 MW se se inclúe a unidade de refrixeración- (2)
Elementos constituíntes básicos e comportamento NeuronaFuncionamento analóxico; responde con potenciais de acción –semellantes a impulsos eléctricos- cando as súas entradas superan un limiar de excitación, que é dinámico TransistorFuncionamento dixital; opera basicamente como un conmutador binario
Capacidade de almacenamento / memoria 3.500 terabytes (1) 1 petabyte de memoria asociada aos procesadores e 12,4 petabytes de capacidade de almacenamento total (2)
Capacidade de procesamento 2.200 teraflops (1)[15] 33,86 petaflops (2)
Arquitectura  Masivamente paralela, sen unha distinción hardware/software nin entre unidades de procesamento e de almacenamento de información Modular e secuencial –o paralelismo lógrase a través da concorrencia de múltiples unidades de procesamento axeitadamente coordenadas vía software para a execución de unha o máis tarefas-[16]
Aprendizaxe Enorme capacidade de aprendizaxe, aínda que non ben coñecidos os seus mecanismos. O mellor estudado é o das modificacións nas conexións sinápticas Técnicas de aprendizaxe en máquina implementadas vía software. Aínda pouco desenvolvido
Multitarefa Si, no terreo inconsciente, pero moi elemental no consciente Si, en función do seu deseño e programación
Evolución Con poucos cambios nos últimos 100.000 anos[17] Moi rápida, sobre todo en potencia de cálculo e capacidade de almacenamento, con crecementos xeométricos
Plasticidade neuronal Gran capacidade de adaptación fronte a estímulos externos, lesións… Ningunha, agás deseños ad hoc –mediante técnicas de tolerancia a fallos, por exemplo-
Cálculos matemáticos Moi lento Moi rápido
Problemas lóxicos –formalizables algorítmicamente- Moi lento Moi rápido
Percepción e acción sobre a contorna Moi rápido[18] Moi lento
Razoamento de sentido común Moi rápido Moi lento
Recuperación de información Por contido Por dirección ocupada

 

 

Táboa III: Comparación entre un cerebro humano e o estado da arte dos computadores. (1) Mark Fischetti, “Computers versus Brains”. Scientific American, Oct 12, 2011 –son datos estimados, en todo caso, así que debemos manexalos con moita cautela-; (2) Datos do Tianhe-2 –Vía Láctea 2, en chinés-, o supercomputador máis potente desde mediados de 2013 ata xuño de 2015.

 

 

  1. O test de Turing

 

O test de Turing foi postulado en 1950 por Alan Turing, ao que xa antes me referín. Fíxoo no seu traballo “Computing Machinery and Intelligence”, publicado na revista Mind, propoñendo o “xogo da imitación”. Basicamente consiste no seguinte: unha persoa, á que denominaremos xuíz, dialoga con outra persoa e un computador, cada un deles en habitacións diferentes. O diálogo realízase a través dun medio que non delate quen é quen. Por exemplo, utilizando un teclado e unha pantalla. Se a través de dito diálogo o xuíz é incapaz de discriminar á persoa da máquina, dise que o computador superou dito test e pode ser considerado intelixente.[19]

 

Turing adopta unha definición conductista na proposta do seu test, de tal modo que considérase que unha máquina será capaz de pensar se é capaz de imitar suficientemente ben a unha persoa no acto observable máis xenuíno e representativo do pensamento humano. De entrada, a complexidade á hora de manexar a linguaxe natural é enorme. Os niveis de análises da linguaxe natural non só involucran os máis evidentes e máis facilmente automatizables, tal é o caso do fonolóxico, morfolóxico ou sintáctico, senón tamén o semántico, ou mesmo o prosódico ou o pragmático.

 

Aínda que nin agora nin en moitos anos o test de Turing deixará de ser un motivo de reflexión, de discusión e mesmo de motivación e guía da investigación no campo da IA, na actualidade o interese acentúase nos sistemas que actúan racionalmente, baixo un enfoque claramente pragmático. Este enfoque, á súa vez, esixe de formas máis prácticas que o test de Turing para guiar e medir a intelixencia nas máquinas. De feito, este test non persegue unha cuantificación da intelixencia da máquina senón a constatación de se esta posúe ou non intelixencia. Polo menos daquela intelixencia que se manifesta a través da súa capacidade de comprensión, razoamento e diálogo en linguaxe natural, deixando de lado moitas outras dimensións da mesma.

 

6.1. Superouse o Test de Turing?

 

Houbo numerosos intentos por obter sistemas con niveis de competencia no diálogo semellantes aos humanos en dominios acoutados. Dous dos primeiros e máis coñecidos son o programa PARRY, desenvolvido por Colby, e o programa ELIZA, de Weizenbaum. PARRY simula a un esquizofrénico paranoico e ELIZA a un psiquiatra Rogeriano no seu diálogo cun paciente. Weizenbaum sempre foi moi crítico respecto da capacidade de ELIZA para retar o test de Turing, mesmo no dominio restrinxido para o que se deseñou. Sirva de exemplo diso a resposta que Weizembaum deu a Colby cando este último argumentaba que PARRY superara o test de Turing; Weizenbaum, con moita retranca, díxolle que el escribira un programa para outro dominio restrinxido, o do autismo na infancia, coa vantaxe de que non necesitaba ser executado nun computador, xa que era suficiente con facer uso dunha máquina de escribir.

 

Os programas de diálogo persoa-máquina son hoxe moito máis sofisticados que os que acabo de comentar. Á marxe do seu uso en aplicacións reais -pensemos en Siri, por exemplo, un asistente persoal en linguaxe natural para iOS-, cada ano unha manchea deles sométense ao premio Loebner, nun intento de superar o reto que este concurso establece e obter o correspondente premio.

 

Hugh Loebner, un filántropo de Nova York, e o “Cambridge Center for Behavioral Studies”, estableceron en 1990 o denominado premio Loebner (www.loebner.net/prizef/loebner-prize.html). Desde 1991, en que se desenvolveu por primeira vez o concurso, naquela ocasión no Museo da Computación de Boston, EE.UU. -pechado en 2000-, este celebrouse anualmente e de forma ininterrompida. Aínda ninguén logrou superar a proba, aínda que o mellor candidato de cada edición recibe un premio de consolación de 2.000 dólares. Pero o premio que realmente se disputa é o que outorgaría 25.000 dólares ao programa capaz de enganar ao xurado facéndose pasar por unha persoa. Hai un premio aínda maior, de 100.000 dólares, cuxo gañador debe superar o test non só a través dun diálogo a “cegas” coa máquina senón tamén coa posibilidade de vela e oíla. No momento en que isto se logre, a competición finalizará.

 

Cada ano os candidatos son máis competentes. O 19 de setembro de 2015 a competición tivo lugar no mítico Bletchley Park, Reino Unido. O gañador desta edición foi Rose, un “chatbot” desenvolvido por un veterano neste premio, Bruce Wilcox. Rose foi deseñado para facerse pasar por unha muller duns 30 anos, consultora de seguros, e logrou enganar uns minutos a parte do xurado, pero non o suficiente como para superar o test. Outro ano será.

 

Son moi poucos os investigadores en IA que se toman en serio este concurso. En 1995 un dos científicos máis relevantes do campo, Marvin Minsky, dixo que daría 100 dólares a quen convencese a Loebner de que non seguise adiante co premio. Este respondeu agradecendo a Minsky que copatrocinase o premio, xa que, na medida en que hai unha situación na que o premio se dará por concluído, o que ocorrerá cando alguén logre o premio dos 100.000 dólares, dita persoa recibirá ademais outros 100 dólares de Minsky. Ser capaz de responder así vai mesmo máis aló de superar o test de Turing, non lles parece?

 

O premio Loebner non é a única competición destas características, aínda que si a máis coñecida e constante. De feito, o 7 de xuño de 2014, con motivo do 60 aniversario da morte de Turing, celebrouse unha competición que gañou o programa “Eugene Goostman”, desenvolvido por Vladimir Veselov, Eugene Demchenko e Sergey Ulasen. O seu programa persegue facerse pasar por un mozo ucraíno de 13 anos. De feito, a primeira versión deste programa data de 2001 e foi presentado en varias ocasións ao premio Loebner, quedando segundo nas edicións de 2005 e 2008. En 2014, Eugene Goostman non só gañou senón que logrou que un terzo dos membros do xurado pensasen que se trataba realmente dunha persoa. Kewin Warwick, organizador do evento e prestixioso investigador en IA, considera que esta foi a primeira vez que se superou o test de Turing. Nin que dicir ten que esta afirmación foi amplamente cuestionada, en particular polos especialistas no campo.

 

Cando Turing propuxo o seu test, prognosticou que no ano 2000 existirían máquinas capaces de superalo. De feito aventurou que unha persoa media non tería máis dun 70% de posibilidades de discriminar entre persoa e máquina despois de cinco minutos de diálogo. É moi improbable, en todo caso, que o logro de Eugene Goostman fose considerado suficiente polo propio Turing como para dar por superado o seu test. Por certo, Turing tamén predixo que chegarían a existir máquinas capaces de almacenar un billón de bits, é dicir, un terabit, e nisto acertou plenamente, xa que fai un puñado de anos que tales computadores existen.

 

Sexa cal sexa o valor que lle confiramos ao feito de que unha máquina chegue a superar claramente o test de Turing, o certo é que non parece haber ningunha razón lóxica ou tecnolóxica para que isto non chegue a producirse. Iso si, non sabemos cando e non parece que vaia a ser pronto se somos realmente rigorosos facendo o test.

 

 

  1. Robótica: máquinas intelixentes para operar no mundo real

 

Desde hai décadas moitos investigadores insisten en que a IA debe deseñar máquinas intelixentes para operar e interaccionar no mundo real. Por tanto, máquinas con “corpo” e non só con “cerebro” -lembremos o período de declive da IA, comunmente chamado “segundo inverno”, durante o que se propugnou dotar dun “corpo” ás máquinas para chegar a lograr avances máis significativos no campo da IA-. Un corpo e un “sistema nervioso” capaz de dotar de intelixencia ao conxunto e mesmo de valerse de dito corpo para ser máis intelixente, é o que conforma basicamente un robot. Para ser realmente intelixentes, estas máquinas, ademais, teñen que ser quen de adaptarse e aprender da contorna. Aprender mesmo como as persoas e das persoas.

 

A robótica[20] avanza e avanzará sobre todo por razóns prácticas. A súa utilidade crece enormemente conforme vanse dando pasos neste ámbito. Por iso o mundo está cada vez máis robotizado.[21] O que ata fai só uns poucos anos circunscribíase ás contornas industriais -con robots operando en cadeas de montaxe, especialmente na fabricación de coches, ou transportando carga en contornas fabrís- hoxe é xa moi común -vehículos autónomos, drones, sondas que chegan a Marte ou a cometas aínda máis afastados-, mesmo no fogar -aspirando, cortando o céspede ou cociñando-. Precisamente, o feito de que camiñemos a un paso acelerado cara un mundo de robótica ubicua fai que sexa cada vez máis necesario lograr a convivencia harmónica entre persoas e máquinas, en particular cos robots. Necesitamos que os robots non só realicen eficazmente as actividades para as que foron deseñados senón que o fagan en circunstancias que non foron previstas durante o seu deseño. Moi especialmente aquelas que supoñen a interacción coas persoas e, en xeral, cun mundo de elementos dinámicos, cos que teñen que convivir.

 

A robótica e, en xeral, as máquinas intelixentes, avanzan da man da enxeñería de materiais, a capacidade de computación e de almacenamento de información, os sensores…[22] Con todo, o motor a reacción da robótica será a aprendizaxe; a capacidade de adaptarse ao medio e aprender del. De feito, a aprendizaxe é e será o gran reto da IA. Lograr mellores prestacións e máis autonomía dos sistemas intelixentes non pode facerse indefinidamente a través da programación directa senón que deberán lograrse maiores cotas de aprendizaxe en máquinas. As máquinas necesitan aprender, sexa por se mesmas, doutras máquinas, das persoas… ou mellor aínda, de todas as formas posibles.

 

Nunha recente entrevista a Gill Prat, responsable do Darpa Robotics Challenge (http://www.theguardian.com/technology/2015/jun/14/gill-pratt-darpa-robotics-challenge-cloud-robots), este afirmou que a “robótica na nube” será sen dúbida un fito importante no campo. En particular se logramos que o que un robot aprenda sexa útil para outros. Imaxinemos un conxunto de robots explorando un territorio e compartindo o que cada un vai recoñecendo ao seu paso ou os mapas espaciais que poidan ir conformando a medida que avanzan. Tamén un robot podería tratar de identificar algo que non recoñece na escena que estea a captar a través do coñecemento ou as capacidades doutros robots ou mesmo de persoas, compartindo despois os resultados. A aprendizaxe en máquinas e, máis aínda, os procesos de aprendizaxe cooperativa en máquinas, abren un mundo de posibilidades inimaxinables ata o momento.

 

Pasemos agora a definir o que é un robot, a falar algo dos tipos de robots existentes e de como aprenden.

 

 

7.1. Que é un Robot?

 

A palabra “robot” foi introducida polo escritor checo Karel Čapek na súa obra R.U.R. (Rossum’s Universal Robots), publicada en 1920. Os robots de verdade, con “cerebro electrónico”, apareceron bastante tempo despois. Desde entón a robótica avanzou con pasos que se foron axigantando co tempo. Fíxoo da man dos avances nun gran número de ámbitos científicos e, sobre todo, tecnolóxicos: sensores, enxeñería de materiais, electrónica, computación… De feito, as definicións de robot e robótica, sobre todo as enciclopédicas ou de dicionario, quedáronse case todas obsoletas ou incompletas. Vexamos algúns exemplos. Primeiro na definición da entrada robótica no Dicionario da Real Academia Española: “Técnica que aplica a informática ao deseño e emprego de aparellos que, en substitución de persoas, realizan operacións ou traballos, polo xeral en instalacións industriais”. Unha peaxe automática dunha autoestrada é un robot? E unha cinta transportadora de obxectos? En verdade, teriamos que aplicar unha semántica moi flexible á palabra robot para que así fose.

 

Menos aínda nos serve a definición que nos dá a enciclopedia británica, que considera que un robot é calquera máquina que sexa operada automaticamente e que substitúa o esforzo humano, aínda que non posúa parecido cos seres humanos. Un simple guindastre é un robot? A día de hoxe non, desde logo, aínda que é certo que co tempo non haberá “simples guindastres”, senón que serán verdadeiros robots, tal como ocorrerá con calquera outro dispositivo deseñado para operar con humanos e que realice tarefas que poidan entrañar certo risco.

 

Sen dúbida é mellor acudir a definicións de organismos especializados en robótica, como o Instituto de Robótica Americano, que define robot como: un manipulador (ou dispositivo) multifuncional e reprogramable, deseñado para mover material, pezas, ferramentas, ou dispositivos especializados a través de movementos programables con diversos fins -RIA, Robotics Institute of America-. Sendo mellor que as anteriores, tampouco é unha boa definición, así que seguiremos dándolle algunha volta máis ao tema.

 

Joseph Engelberger,[23] pioneiro da robótica, di dos robots que son como os elefantes: aínda que non saibamos definilos ben, si os recoñecemos ao velos. A verdade, eu non estou tan seguro diso, e cada vez menos. Por exemplo, non deberiamos considerar como robots aos móbiles máis avanzados do mercado? Á fin e ao cabo, incorporan máis e máis sensores, son capaces de dialogar coas persoas e con múltiples dispositivos, incluídos outros móbiles, teñen efectores e pódenselles adaptar moitos outros para aplicacións específicas, como o control de dispositivos externos. É certo que non teñen ningunha capacidade de movemento, xa que para iso dependen de nós, pero poden utilizar o noso propio movemento para obter información da contorna, procesala e tomar decisións. De feito, se os excluímos de ser considerados robots é unicamente por ser dispositivos completamente estáticos, carentes de calquera movemento autónomo. Paradoxalmente, non é esta unha calidade na que explicitamente incidan moitas definicións de robot, tal como vimos.

 

Non podemos seguir indefinidamente con definicións, así que direilles cal é para min a mellor definición de robot. Trátase da de Brady e Paul [1984]: «A robótica é a conexión intelixente da percepción á acción». Artificialmente intelixente, poderiamos matizar, e engadir que opere no mundo real. En definitiva, o que estamos a dicir é que: “un robot é un sistema artificial que actúa fisicamente e con certa autonomía sobre unha contorna real, de acordo cuns obxectivos e a información da contorna da que dispón”.

 

 

7.2. Diferentes propósitos, robots distintos

 

Hai moitas formas de clasificar os robots: cronoloxicamente podemos distinguir distintas xeracións, que van dos simples manipuladores aos máis intelixentes e sofisticados robots de hoxe en día; tamén pola súa estrutura, partindo dos brazos articulados, tan comúns en ámbitos industriais, ata os humanoides ou, en xeral, os robots zoomórficos; podemos clasificalos de acordo coa súa mobilidade, desde os robots manipuladores aos robots móbiles; tamén é frecuente valoralos de acordo co grao de autonomía que presentan, distinguíndose aqueles sen ou con escasa autonomía, basicamente teleoperados e de guiado automático, dos semiautónomos e os totalmente autónomos. Realmente, calquera robot que transporte a súa fonte de enerxía e o seu sistema de control dise autónomo, pero isto sen máis sería unha autonomía considerada débil. A autonomía forte supón ademais ter a capacidade de tomar as súas propias decisións nunha interacción constante co medio e de acordo cuns obxectivos, sen a intervención humana directa.

 

Realmente a clasificación máis relevante dos robots atende á súa aplicación. Son os usos, en definitiva, os que marcan fundamentalmente as características dos robots e, por tanto, as outras formas de categorizalos. Neste sentido, convén distinguir entre os robots industriais e os robots de servizo. Aqueles dominaron as primeiras décadas da robótica, tanto desde un punto de vista práctico como comercial. O panorama agora está a mudar rapidamente e son os robots de servizo, incluso os de ámbito persoal, os que avanzan con máis ímpeto e están a cambiar a nosa forma de vivir. E non fixemos máis que empezar!

 

Segundo a norma ISO 8373, un robot industrial é un manipulador controlado automaticamente, reprogramable e multipropósito, programable en tres ou máis eixos, que pode estar tanto ancorado nun lugar como ser móbil, e de uso en aplicacións de automatización industrial. Por exemplo, robots para pintar, montar equipos, de soldadura, para a manipulación de material pesado ou perigoso, etc. De acordo coa International Federation of Robotics (IFR; www.ifr.org), no ano 2014 bateuse o record de robots industriais vendidos, estimándose un total de 225.000, un 27% máis que en 2013. O principal comprador foi China, con 56.000 robots, un 54% máis que o ano anterior, sendo a maior parte para o sector da automoción, seguido polo da electrónica.

 

Aínda que non existe unha definición globalmente aceptada, podemos considerar un robot de servizo (www.service-robotics.org), como aquel que opera de forma autónoma ou semiautónoma, realizando servizos útiles para o benestar das persoas, excluídos os procesos de fabricación -esta é unha definición da IFR, aínda que provisional-. Actualmente estase traballando nunha actualización da norma ISO 8373, que xa incluirá a definición de robot de servizo.

 

En xeral distínguese entre robots de servizo profesionais e persoais. Os robots profesionais adoitan utilizarse en tarefas repetitivas, que requiren de forma permanente altos niveis de concentración e en contornas especialmente esixentes e profesionais -por exemplo, en situacións perigosas para as persoas-. Son moitas as súas áreas de aplicación, por tanto. Entre elas: limpeza en contornas industriais, mantemento de equipos, rehabilitación de persoas, seguridade, construción, adquisición de datos en lugares perigosos, rescate, loita contra o lume, eliminación de minas, e un moi longo etcétera. O número de robots profesionais vendidos en 2013 creceu un 4% en relación a 2012. Vendéronse un total de 21.000 unidades, o 45% para aplicacións militares. Outros ámbitos de aplicación moi relevantes son o sector agropecuario -de feito, en 2013 vendéronse uns 5.100 robots para muxir as vacas-, o médico e o loxístico. Se ata o ano 2008 só se venderon no mundo 63.500 robots de servizo para uso profesional, esta cifra chegou aos 100.000 entre 2009 e 2013. A previsión de vendas de robots profesionais para o período 2014-2017 sitúase en 134.500 unidades.

 

Os robots persoais oriéntanse aos servizos de carácter persoal, como o entretemento -é o caso de Aibo, un robot can de Sony-, labores domésticos -aspiradoras, cortacéspede-, educación, asistencia a persoas con necesidades especiais… En definitiva, son robots pensados para convivir connosco e realizar tarefas que inflúan directa e positivamente na nosa forma de vida. Este tipo de uso ten unha esixencias especiais para estes robots, particularmente no que se refire á súa autonomía, na medida en que os usuarios teñen que ser liberados de tarefas de programación do robot e, no posible, da configuración do mesmo ou da contorna. En 2013 vendéronse preto de 4 millóns de robots de servizo para uso persoal e doméstico, un 28% máis que en 2012. Ademais, as proxeccións en vendas destes robots para o período 2014-1017 sitúanse en 31 millóns de unidades. O custo por unidade destes robots é moi inferior ao dos robots profesionais e, máis aínda, que no caso dos industriais, pero o número de vendas e á súa evolución converten ano a ano ao mercado deste tipo de robots nun obxectivo prioritario para moitas empresas do sector. De feito, un estudo recente do Ministerio de Economía, Comercio e Industria xaponés, asume que en 2035 o mercado destes robots moverá bastante máis diñeiro que o dos robots industriais.

 

 

7.3. Robots autónomos

 

Cando falamos de robots autónomos referímonos a aqueles que poden moverse e operar sen a constante asistencia dunha persoa, aínda que tamén a autonomía en robótica é un concepto impreciso. Normalmente falamos dun robot autónomo se é capaz de realizar a función para a que foi deseñado sen depender para iso de persoas. Por exemplo, un robot aspiradora é autónomo para realizar esa función, pero non o é para baleirar o aspirado ou autorrepararse. Tampouco para superar obstáculos no seu camiño.

 

Hai tres características principais que afectan á autonomía dun robot:

  • A súa configuración: forma, materiais, sensores, actuadores…
  • A contorna.
  • A súa “intelixencia”.

 

A “intelixencia” do robot é o que comunmente asociamos coa súa programación, co código ou software que se executa nos seus elementos de computación. Realmente non é así, xa que unha parte desa “intelixencia” está encaixada en sensores, actuadores e, en xeral, nos compoñentes activos do robot. Por outra banda, se pensamos nun robot como nun dispositivo que actúa en función do percibido da contorna e do seu obxectivo, poderiamos representar a súa resposta, polo menos nunha primeira aproximación, a través desta expresión:

 

Acción = IM (estado percibido) = IM (FP (verdadeiro estado do mundo)),

 

onde IM é a “intelixencia en máquina” do robot e FP a “función de percepción”. Esta transforma o mundo nunha representación interna, propia do robot. A IM do robot toma decisións -dá respostas- en función do estado do mundo percibido polo robot e os seus obxectivos. É importante destacar que o estado do mundo percibido polo robot é unha transformación do estado real ou verdadeiro, na medida en que este está condicionado polos sensores do robot e as súas características. Como dixo Anais Nin: “Non vemos as cousas como son senón como nós somos”. En definitiva, a forma na que percibimos o mundo condiciona o modo en que interaccionamos con el.

 

 

7.4. Robots intelixentes

 

Ronald C. Arkin define un robot intelixente como unha máquina capaz de extraer información da súa contorna e de utilizar coñecemento do mundo -en xeral da contorna no que se desenvolve, é dicir, do “seu mundo”-, para moverse e desempeñarse de forma segura e dun modo intencionado e con sentido. Trátase dunha definición bastante elemental, así que quedaremos con outra moi anterior no tempo, pero tremendamente lúcida: “The extent to which we regard something as behaving in an intelligent manner is determined as much by our own state of mind and training as by the properties of the object under consideration. If we are able to explain and predict its behaviour or if there seems to be little underlying plan, we have little temptation to imagine intelligence. With the same object, therefore, it is possible that one man would consider it as intelligent and another would not; the second man would have found out the rules of its behaviour”. Así se manifestaba Alan Turing, nada menos que nun informe escrito en 1948, titulado “Intelligent Machinery”. Non en balde foi un dos xenios da computación e da intelixencia artificial, por moito que esta disciplina aínda non existise formalmente nese momento.

 

 

Deliberativo De reacción
Tempo de resposta Lento Rápido –tempo real-
Coñecemento requirido do mundo Alto -modelos complexos- Baixo -modelos simples-
Representación do coñecemento do mundo Simbólica De baixo nivel
Mecanismo de razoamento Varios niveis ou capas de razoamento entre a percepción e a acción Axuste directo de percepción e acción
Tipo de intelixencia requirida Alto nivel Baixo nivel
Tipo de tarefas ás que se orienta Tarefas complexas –recoñecemento de esceas, manipulación de obxectos, planificación de rutas…- Comportamentos simples –seguir contornos, evitar obstáculos…-

 

Táboa IV: O comportamento dun robot no medio no que opera pode ser de reacción ante un estímulo ou situación dada, normalmente cando se require dar respostas oportunas, pertinentes e en tempo, ou ser de tipo deliberativo, cando non é tanto a velocidade de resposta o que se persegue senón a súa precisión.

 

A intelixencia nun robot é un caso particular do que se deu en chamar “intelixencia en máquinas”. Non sendo nada fácil dotar de intelixencia a un computador para xogar ao xadrez nun mundo simulado na súa pantalla, imaxinemos o que supoñería facelo no mundo real. Toda a competencia no xogo daquel sería requirida tamén neste, pero ademais teríamos que ter un sistema de visión artificial que lle permitise recoñecer as pezas e o taboleiro, independentemente da súa forma, tamaño, condicións de iluminación, disposición… e manipulalas para facer os correspondentes movementos. Pensen se ademais quixésemos que dito robot se manexase nunha linguaxe natural e que chegase polos seus propios medios ao lugar onde se desenvolve a partida, conducindo ademais o seu propio coche.

 

Son moitas as aproximacións seguidas na integración de intelixencia nas máquinas, e en particular nos robots. As máis utilizadas van desde as aproximacións de resposta a estímulos externos, ata as baseadas en técnicas de razoamento deliberativas -táboa IV-. As primeiras miran moito máis ao que se percibe da contorna que á tarefa a realizar, ao revés que as segundas. En todo caso, ambas teñen que coexistir nun robot que realice actividades non triviais.

 

7.5. Aprendizaxe en máquinas

 

A aprendizaxe en máquinas está moi inspirado no modo en que os seres vivos aprendemos, en particular os seres humanos. Tanto por experiencia propia como doutros. Fronte ao deseño de máquinas nas que o seu comportamento fíxase en todos os seus detalles durante a fase de construción e programación, a aprendizaxe permite que estas melloren as súas prestacións unha vez construídas, mesmo durante a súa operación nas contornas e para o tipo de problemas para o que se deseñaron.

 

Tom M. Mitchell refírese á aprendizaxe en máquinas a través dunha definición amplamente referenciada e penso que acertada: “Un programa informático dise que aprende dunha experiencia E respecto dunha clase de tarefas T, tendo un rendemento R, se dito rendemento mellora coa experiencia E ao realizar as tarefas T”, [Mitchell, 1997].

 

Son moitas as estratexias e ferramentas que se desenvolveron para a aprendizaxe en máquinas. Isto ten unha vertente positiva, ao dispoñer dun repertorio cada vez máis nutrido e afinado de posibilidades para lograr que as máquinas aprendan por si mesmas. Pero hai outra que non o é, xa que reflicte o moito que ignoramos sobre como aprenden os seres vivos máis intelixentes e, en particular, como o facemos os humanos, e do difícil que é replicalo a nivel computacional.

 

A aprendizaxe en máquinas prodúcese en xeral en base a exemplos -conxuntos de adestramento- ou experiencias adquiridas. Durante a aprendizaxe a máquina debe dispoñer dalgún criterio propio ou externo que oriente dito proceso, dun modo análogo a como o facemos as persoas. Neste sentido, existen basicamente tres modos de aprender:

 

Aprendizaxe supervisada: a máquina recibe información da contorna ou do problema para resolver  e a forma na que debe responder a ela. Tras a aprendizaxe a máquina terá que ser quen de responder adecuadamente non só aos exemplos de adestramento senón, cando menos, a outros semellantes. Esta estratexia de aprendizaxe resulta especialmente útil en problemas de clasificación nos que se dispón de exemplos representativos das categorías para discriminar -a modo de pares: (patrón a clasificar, clase á que pertence)-, e que conformarán o conxunto de adestramento. É fácil ver que se trata dun mecanismo de aprendizaxe moi común nas persoas. Pensemos en ensinarlle a un neno como discriminar entre cans e gatos mostrándolle un bo número de exemplos duns e outros, á vez que lle dicimos que está a ver en cada caso.

 

Aprendizaxe non supervisada: a máquina recibe información da contorna ou do problema para resolver e unha función obxectivo a satisfacer durante a aprendizaxe. É moi común en problemas de clasificación de patróns mediante a detección de grupos formados por elementos semellantes entre si e diferentes dos pertencentes aos outros grupos. A máquina aprenderá a construír grupos que minimicen a separación entre patróns dunha mesma clase e maximicen a separación entre patróns de clases distintas. Un exemplo humano dáse cando un neno, vendo animais de dúas especies distintas, e aínda que ignore de entrada o que son, é capaz de acabar separando os especímenes que pertencen a unha e outra.

 

Aprendizaxe por reforzo: a máquina recibe información da contorna ou do problema para resolver e un reforzo positivo/negativo en función de que a súa resposta ante a devandita información sexa acertada ou non, respectivamente. Un exemplo deste tipo de aprendizaxe dáse cando imos indicando a un neno o que non pode tocar cada vez que alarga a súa man para coller algo que chama a súa atención. Neste caso trátase de reforzos negativos ante determinadas accións, pero, do mesmo xeito, poderían darse reforzos positivos ante outras accións que o requiran.

 

 

7.6. Máquinas que aprenden como ti e de ti

 

Se queremos conseguir robots que operen de forma autónoma no mundo real e coa versatilidade necesaria, teremos que avanzar e moito na aprendizaxe en máquinas. Doutro xeito, non seremos capaces de abordar tarefas complexas en contornas dinámicas e impredicibles. Por iso é polo que a xeración “S” de computadores se identifica coa aprendizaxe en máquinas -táboa I-.

 

Aprendizaxe Deseño ad hoc Por experiencia Por imitación
Como aprende? Programación explícita Explorando Mediante exemplos
Que aprende? Non hai aprendizaxe Unha estratexia de control, é dicir, un mapa de correspondencia entre o percibido -estados recoñecidos do mundo- e as respostas ou accións a realizar, sexan sobre o mundo ou internas
De quen aprende? O deseñador decídeo todo Mediante proba e erro Dun maestro
Cando aprende? Todo queda fixado na fase de deseño Durante e despois do deseño
Aspectos críticos Requírese un gran coñecemento por parte do deseñador. Este avanza en xeral por proba e erro Depende en gran medida da estratexia de aprendizaxe seguida. Na aprendizaxe por reforzo a función de reforzo é crítica e require un elevado coñecemento da tarefa a resolver Depende moito da capacidade do mestre para ensinar e da construción da función que representa no robot o que aquel ensina

 

Táboa V: Características más salientables da aprendizaxe por experiencia e por imitación.

 

 

A aprendizaxe en máquinas, sexa durante fases de adestramento previas a súa utilización real ou durante esta -ás veces de forma ininterrompida, no que poderiamos chamar “aprendizaxe ao longo da vida” da máquina-, adoita producirse mediante a adquisición de experiencia propia ou por imitación -imitando a un demostrador humano ou a outra máquina-. A táboa V recolle as características máis relevantes de ambos os dous tipos de aprendizaxe.

 

Agora ben, lograr robots capaces de aprender por si mesmos é un reto moito máis complexo do que cabería supoñer en primeira instancia. Trátase de aprender en e do mundo real, non en situacións ben definidas e con condicións totalmente controladas. Pensemos, sen ir máis lonxe, na diferenza que supón aprender a distinguir distintas especies de animais nos seguintes casos: estando nun espazo aberto con animais reais e usando visión artificial; ou a partir de fotografías dos animais que deben discriminarse. As fotografías poderían ser de gran calidade, con encadres perfectos e tomadas en boas condicións de iluminación. Pola contra, a captación de escenas dos animais reais nun espazo aberto estaría sometida a moitas variables non controlables, que incidirían enormemente na calidade do resultado: iluminación, encadre, distancia, movemento dos animais… É certo que se o recoñecemento do animal non ten que ser instantáneo, o robot poderá aproveitar o seu propio movemento e capacidade de interacción co medio para mellorar o resultado -por exemplo, achegándose ao animal ou situándose de tal modo que a incidencia da luz facilite a súa identificación-, pero, ao tempo, a constante interacción cun mundo complexo e cambiante require ter unha gran intelixencia [artificial]. Isto sitúanos no que se coñece como robótica cognitiva, con robots capaces de percibir, razoar e actuar nunha contorna complexa, dinámica e non completamente coñecida. Estamos a falar da intersección de dous problemas moi difíciles: o deseño de sistemas físicos capaces de interaccionar con contornas nas que hai poucas restricións; e a aprendizaxe continua por parte das devanditas máquinas.

 

A acción dun robot dependerá de cales sexan os seus obxectivos e o coñecemento do que dispoña para alcanzalos, pero todo iso influído enormemente polo contexto que fixa “o mundo” no que o robot estase a desenvolver e, en particular, da súa percepción do devandito mundo. A percepción é un medio que permite e condiciona á vez a acción do robot. A capacidade de razoar sobre o mundo ou a contorna na que un robot desenvolve as súas tarefas é fundamental para realizalas adecuadamente e, máis aínda, para aprender a resolvelas cada vez mellor. Por tanto, a información de contexto é unha parte esencial do proceso cognitivo: información temporal e espacial relacionada coas tarefas que se están levando a cabo, de obxectos e persoas no lugar, de eventos que ocorren ou ocorreron e un longo etcétera. Así o facemos as persoas, manexando información contextual [Yeh e Barsalou, 2006] e así poden facelo os robots tamén [Celikkanat e col, 2014].

 

Obviamente, a comprensión da contorna por parte dun robot depende en moi alta medida da súa capacidade de percepción a través dos múltiples sensores que adoitan incorporar estas máquinas. De feito, os avances na sensorización dos robots son constantes e necesarios. Ás veces incorporando novas modalidades sensoriais -IRVOS 2015, 2nd Workshop on alternative sensing for robot perception: beyond laser and visión, (http://www.rit.edu/kgcoe/iros15workshop/)-, outras a través da mellora do tipo de sensores xa existentes, aumentando as súas prestacións ou abaratándoos sensiblemente. Este é o caso xa comentado das cámaras Kinect, desenvolvidas inicialmente para a súa utilización en videoxogos. En todo caso, mellorar a comprensión da contorna non é tan simple como engadir máis sensores e con maior precisión. Estes, ao fin e ao cabo, aumentan as posibilidades, pero para convertelas en realidades fan falta mecanismos moi sofisticados de integración multisensorial, eliminación de ruído, detección de características, recoñecemento de entidades, eventos e escenas, predición de movementos, etc. A fusión sensorial, por exemplo, involucra en moitos casos o uso de métodos moi sofisticados, como filtros de partículas, filtros de Kalman, técnicas bayesianas, redes neuronais artificiais, etc. Todos estes métodos adoitan operar nun proceso cíclico de tres etapas: predición do que será percibido nun breve período de tempo; comparación da predición co que realmente se acaba percibindo, e axuste da interpretación da contorna e de como incide nela cada un dos sensores [Crowley, 1993; Thrun e col., 2005]. En definitiva, non debemos confundir a cantidade e calidade da información sensorial percibida da contorna co coñecemento do que hai e o que sucede na mesma. A través dunhas cámaras de moi alta resolución, por exemplo, un robot pode captar unha escena con todo detalle, pero iso non lle permite sen máis recoñecer ningún dos obxectos da devandita escena ou saber se está na cociña dunha casa ou nunha das salas do Museo do Prado.

 

A manchea de tarefas que é necesario atender con acerto para avanzar na robótica cognitiva e, en particular, na aprendizaxe de tarefas complexas, fan que un número crecente de investigadores considere que estamos ante un “embude” debido a que os robots de hoxe en día aínda son sistemas excesivamente modulares, deseñados mediante agregación de compoñentes. Realizar tarefas non triviais baixo esta estratexia require unha gran capacidade de computación e almacenamento, un elevado consumo enerxético e un sistema de control tremendamente complexo. O embude derivaría, ademais, da falta de proporcionalidade entre a complexidade e sofisticación do robot en relación á complexidade da contorna e das tarefas para resolver nela. Pequenos avances na funcionalidade dun robot supoñen, de feito, incrementos moi significativos na súa complexidade: graos de liberdade, sensores, computación, comunicación, interfaces persoa-máquina, etc. Crese que parte das solucións a este problema pasan por unha revolución nos dous eixos da robótica cognitiva: novas e poderosas formas de integrar percepción, cognición e acción e novos e sofisticados axentes físicos, ou robots, nos que non ten sentido a separación estrita entre o seu sistema de control -o sistema nervioso central- e os elementos para ser controlados -o seu corpo-. Esta liña de avance coñécese como “robótica branda” -soft robotics- [Trimmer, 2014; Majidi, 2014].

 

Imos agora a centrar a atención en dous paradigmas que permiten que un robot sexa capaz de construír coñecemento a partir das súas propias experiencias e da súa interacción coa contorna e coas persoas. Seguindo esta idea podemos falar basicamente de dous modos de aprendizaxe: por imitación e por experiencia. Ambos están inspirados en formas de aprendizaxe seguidas por algúns seres vivos, en particular as persoas, e pódennos ilustrar o que é a aprendizaxe en máquina e como pode abordarse na resolución de problemas reais.

 

7.6.1. Aprendizaxe por imitación

 

Tal como pode verse na figura 2, o obxectivo é aprender dun mestre que indica como realizar unha tarefa dada. Trátase de trasladar os “ensinos” do mestre ata chegar a construír unha estratexia de control -fase de aprendizaxe-, que guíe despois o comportamento do robot en condicións reais de funcionamento -fase operativa do robot-. Esta estratexia de control (EC) achega as respostas ou accións que o robot debe realizar en cada momento, tendo en conta a información que percibe da contorna e o seu estado interno, co fin de lograr un obxectivo dado:

 

Resposta = EC (contorna, estado_interno)

 

Poñamos un exemplo sinxelo. Se despois de ver como un humano move o seu brazo e a súa man para coller un obxecto sobre unha mesa o robot aprendeu a facelo, a estratexia de control aprendida serviralle a este para guiar o seu movemento e facer o propio en sucesivas ocasións. Deste xeito, a estratexia de control aprendida irá guiando o brazo do robot dun modo semellante ao mestre humano, decidindo os movementos das súas articulacións en función da información relevante para o problema: posición do obxecto -contorna-, posición da súa man -estado_interno-, etc.

 

A capacidade de “imitar” dun robot require de moitas capacidades adecuadamente coordinadas: de percepción, cognitivas e motoras, fundamentalmente. Dalgún modo, trátase de prerrequisitos para a aprendizaxe por imitación. Pensemos, sen ir máis lonxe, na necesidade de dispoñer de capacidades de percepción para detectar movementos nunha escena ou na coordinación visual-motora requirida en tarefas de seguimento de obxectos, por non falar do interese de poder predicir as consecuencias das accións antes de tentalas.

 

Un interesante traballo de Argall e col. [2009] distingue catro métodos de aprendizaxe por imitación, tal como mostra a figura 3. Estes catro métodos derívanse do modo no que o robot percibe os ensinos do mestre e como as traduce á estratexia de control que os “sintetiza”.[24]  Unha cousa e outra pódese facer de modo directo ou indirecto, o que dá lugar aos catro métodos mencionados. Imos explicalos cun exemplo fóra da robótica, nun intento de facilitar a súa comprensión. Imaxinemos que queremos ensinar caligrafía a un neno e pensamos nas seguintes catro formas de facelo: 1) movendo nós a súa man para escribir letras, números, palabras, frases… Diremos que este é o método “asistido”; 2) poñéndonos á beira do neno e pedíndolle que reproduza os nosos movementos a medida que escribimos os exemplos de “adestramento”. Chamemos a este método “reprodución do comportamento”; 3) situando sensores no noso corpo que traduzan, mentres escribimos os exemplos, a posición dalgúns puntos do noso brazo a coordenadas no plano do papel utilizado para a escritura, de modo que despois podamos recoñecelos e seguilos en detalle. Chamaremos a este método “sensores no mestre”; e 4) poñendo nunha pantalla as imaxes gravadas por unha cámara coa que gravamos a escritura dos exemplos de adestramento, pero sen que a gravación deixe ver moito máis que a evolución do lapis ao escribir. Chamaremos a este método “observación externa”. Pensemos que nos dous primeiros métodos o neno participa directamente no proceso de demostración, non sendo así nos outros casos.

 

O exemplo explicado e as súas variantes ben poden ser aplicadas na aprendizaxe en máquinas, e en particular en robots, e así se está facendo en moitos casos. Na aprendizaxe mediante imitación asistida -método 1- ou a través de sensores no mestre -método 3-, o robot dispón xa dos exemplos para aprender de forma directa, tal como vimos. É máis, no primeiro método o robot estará xa realizando o que debe aprender e, por tanto, dispoñerá directamente da información: (resposta, contorna, estado_interno), que deberá mapear a unha estratexia de control. No terceiro método non é así, de modo que primeiro deberá traducir a información dos sensores situados sobre o mestre ao formato: (resposta, contorna, estado_interno), e xa despois realizarase o seu mapeado á estratexia de control. Por tanto, aínda que en ambos os dous casos a percepción dos exemplos sexa directa, difiren na forma de obter a información requirida a nivel interno para obter a estratexia de control obxecto do proceso de aprendizaxe.

 

Os outros dous métodos de aprendizaxe por imitación xorden dos casos nos que o robot ten unha percepción indirecta dos ensinos do mestre. No segundo método o robot reproduce o comportamento que percibe de forma indirecta do mestre -normalmente non dun modo fiel, por limitacións físicas do robot, por exemplo-, pero a partir de aí funciona como no caso do robot asistido. No cuarto método, con todo, ademais de ter unha percepción indirecta dos exemplos para aprender, estes non se reproducen por parte do robot antes de construír a estratexia de control, de modo que o percibido debe ser tamén traducido internamente ao formato: (resposta, contorna, estado_interno), antes de ser mapeado á estratexia de control. Trátase do método máis fácil para ensinar e o máis difícil para aprender, xusto ao contrario que o método asistido.

 

 

 

 

 

 

 

 

 

 

Figura 2. Esquema xeral de aprendizaxe por demostración –imitación-. Unha vez que o robot aprende do mestre unha estratexia de control, incorpóraa para guiar o seu comportamento.

 

 

Integración na estratexia de control
Directa Indirecta
Percepción da demostración Directa Asistida Sensores no mestre
Indirecta Reprodución do comportamento Observación externa

 

Figura 3. Distintos tipos de aprendizaxe por imitación en función do modo no que se percibe a demostración e esta é integrada no suxeito que aprende –robot- a través dunha estratexia de control que o guíe posteriormente. Fonte: elaboración propia a partir de Argall e col. [2009].

 

A aprendizaxe por imitación é unha estratexia realmente potente para mellorar as prestacións dun robot sen ter que acudir ao seu redeseño ou reprogramación constantes. Con todo, a súa xeneralización como método de aprendizaxe é realmente complicada. Son moitas as incógnitas e de calado: Que debe imitar un robot daquilo que percibe e cando facelo? Como trasladar o que pretende imitar a accións propias?[25]  Cando finalizar o proceso?… Non ten sentido abordar aquí en detalle as respostas que se están dando a estas e outras preguntas, todas elas parciais, en calquera caso, pero convén non pasar por alto a complexidade das mesmas. Ademais, a aprendizaxe por imitación non é suficiente en robots que teñan que aprender máis aló do estritamente ensinado e de forma permanente. Aínda que se utilizan técnicas que xeneralizan en boa medida o aprendido por imitación, isto non adoita ser suficiente, sobre todo en contornas cambiantes. Neste sentido, necesítanse robots con capacidade de aprender “en liña”, capaces de mellorar de forma autónoma, por si mesmos, a través da experiencia [Sigaud, 2010] e robots socialmente intelixentes, capaces de empregar a imitación para moito máis que unha simple reprodución de accións, tal como facemos as persoas, de feito. Un neno, poñamos por caso, usa a aprendizaxe por imitación para adquirir novas destrezas á vez que adquire información sobre o propósito de quen lle ensina. Inferir a intención que hai detrás das accións observadas permite entender o obxectivo do individuo ao que se imita. É o que ocorre, por exemplo, na aprendizaxe socialmente guiada, moi presente nos nenos e explorado tamén no campo da aprendizaxe en robots [Demiris, 2008].

 

 

7.6.2. Aprendizaxe a partir da experiencia

 

Unha forma alternativa de aprendizaxe consiste en que o robot adquira experiencia propia a través da interacción coa contorna e creando unha estratexia de control mediante proba e erro. En función do bo ou mal comportamento do robot achégase unha recompensa ou penalización, respectivamente, de tal modo que o criterio que guiará ao robot na súa aprendizaxe é o de maximizar a longo prazo a recompensa recibida. Loxicamente, isto non se fai ao chou, senón que debe haber criterios para guiar as probas e establecer as recompensas ou penalizacións en cada caso. Fronte á aprendizaxe por imitación, aquí non se necesita un mestre que guíe o proceso co seu exemplo. Por outra banda, trátase dunha forma de aprendizaxe moi sensible ao modo no que o robot explora o medio para adquirir experiencia e ao deseño da función de recompensa en termos da calidade na execución das tarefas que se fixaron como obxectivo para o robot. A figura 4 mostra o esquema xeral desta forma de aprendizaxe.

 

O deseño da función de reforzo é pois un elemento crítico nesta forma de aprendizaxe e ocupou e ocupa o traballo de moitos investigadores do campo da aprendizaxe en máquina. Pensemos, por exemplo, en quen proporciona o reforzo ou lle di ao robot se o está facendo ben ou mal. Isto podería facelo un observador humano, e nesta liña estivemos investigando no Grupo de Sistemas Intelixentes da USC [Quintía e col., 2013; Iglesias e col., 2015]. Por exemplo, a través dun mando unha persoa pode indicarlle ao robot que está a facer algo incorrecto de acordo cunha tarefa que a persoa quere que o robot realice. Aparentemente este proceso é moi sinxelo, pero na realidade non é así, mesmo por condicionantes externos ao robot e á tarefa a realizar. De feito, nalgúns dos experimentos que realizamos a persoa encargada de achegar reforzos ao robot variou sobre a marcha o criterio que seguía. Ás veces cambiando o grao de esixencia ao robot en relación ao que consideraba como unha correcta realización da tarefa ou cambiando mesmo de opinión sobre como o robot debería abordar dita tarefa -aquilo que nun principio se consideraba correcto pasou a considerarse erróneo-. Como pode o robot aprender a partir dun único sinal de realimentación ou reforzo se, ademais, esta pode presentar un elevado nivel de ruído?

 

Unha estratexia que pode axudar nestas situacións é “automatizar a aplicación do reforzo”, por exemplo mediante procesos nos que a función de reforzo constrúese a partir dun comportamento correcto realizado por persoas ou outras máquinas. Deste xeito poderiamos decidir se o robot que aprende estase a apartar ou non do comportamento que quere aprender e darlle así o “reforzo que se merece”. Esta é unha estratexia que tamén usamos no Grupo de Sistemas Intelixentes [Quintía e col., 2008]. En concreto, ensinando a moverse a un robot nunha contorna mediante a comparación dos seus movementos cos da xente, captados estes mediante cámaras distribuídas en dita contorna. Deste xeito, o robot vese penalizado se non se move por onde o fai a xente. Neste caso a función de reforzo constrúese imitando o comportamento humano na resolución dunha tarefa, polo que se mesturan as capacidades da aprendizaxe por imitación e por experiencia.

 

 

 

 

 

 

 

 

 

Figura 4. Esquema xeral da aprendizaxe por experiencia a través de reforzo. O obxectivo da aprendizaxe é maximizar a recompensa, o que se corresponde coa axeitada realización da tarefa que ten que ser aprendida.

 

 

7.7. Aprender a convivir cos robots, e cos seus erros

 

Tal como dixemos, avanzamos a pasos acelerados cara un mundo de máquinas intelixentes, cuxa aceptación e implicacións non se reduce a cuestións tecnolóxicas e de custos. Falaremos de ética e de emprego, pero interésame agora comentar o suposto “paradoxo da falible máquina intelixente”. Moita xente non desculpa erros nas máquinas, menos aínda si se dedican a tarefas que requiren certa intelixencia para o seu desempeño. Ao meu modo de entender resulta paradoxal que lle pidamos ás máquinas, en particular aos robots, un grao de fiabilidade que non pedimos ás persoas. Pensemos en exemplos triviais como a devolución do cambio por unha máquina expendedora. Cantas veces se equivocan nunha tenda ao darnos a volta? Cantas veces cometeu o mesmo erro unha máquina? Con todo, desculpamos á persoa pero non o facemos coa máquina. O mesmo ocorre, a outra escala de complexidade e importancia, cos avances xa moi significativos nos coches autónomos. Está a demostrarse que son moi fiables, se ben é certo que aínda non circulan de forma ordinaria polas estradas. Pois ben, cada accidente dun destes coches -en xeral por culpa dun condutor humano doutro vehículo- supón pouco menos que unha algarabía informativa, seguida de voces que alertan sobre o seu perigo. Aos robots considerámolos absolutamente bastos e limitados, mesmo aos máis sofisticados, como ASIMO, o robot humanoide de Honda. Se este robot cae nun intento por subir unha escaleira burlámonos del e inmediatamente pensamos que máquinas así non chegarán moi lonxe, nin física nin intelectualmente. Non nos paramos a pensar o realmente difícil que é camiñar e a enorme torpeza coa que o fan os nenos durante meses ou mesmo anos, ata que chegan a coordinar adecuadamente os sensores e efectores do andar. Efectivamente, nin o máis intelixente dos robots ten aínda a intelixencia dun mico no que se refire á súa interacción coa contorna, pero pode gañarlle ao campión do mundo de xadrez ou xogar e vencer ao Jeopardy! Ademais, non necesitamos que unha máquina faga todo ben nin que sexa mellor en algo que o mellor dos humanos. Abonda con que sexa mellor en algo que a media das persoas. É necesario que un sistema experto en cardioloxía, poñamos por caso, sexa máis competente que o mellor dos especialistas humanos en dito campo? Por suposto que non. Pensemos que ese especialista só pode estar nun lugar á vez, non poderá estar dispoñible en todo momento e as súas prestacións dependerán de moitos outros factores, que non son só do coñecemento e a experiencia acumuladas. En todo caso, parece que xa lle imos vendo as orellas ao lobo [mecánico], á vista de como celebramos cada ocasión en que as persoas superamos ás máquinas. Sirva como exemplo o seguinte titular: “Never forget a face? Humans still beat the latest computers? -The Independent, 2/9/2015, p. 13-, que precede á descrición dunha proba realizada recentemente, en que xente especializada en ciencias forenses superou a un sistema de visión artificial no recoñecemento de caras descoñecidas. É curioso, cabería pensar que o que debería ser noticia sería o contrario, non lles parece?

 

 

  1. As máquinas intelixentes poñen en risco o noso emprego?[26]

 

Cando a mecanización, a informática ou a robótica permiten que as máquinas fagan o noso traballo dun modo máis preciso, rápido, barato ou seguro, as persoas acabamos sendo substituídas por elas antes ou despois. De feito, estamos a asistir, como nunca antes, á continua creación, transformación e destrución de emprego. Hai destrución de emprego cando se substitúen sen máis as persoas por máquinas. Por exemplo, ao cambiar nunha autoestrada os caixeiros humanos por caixeiros automáticos. A destrución creativa de emprego dáse cando uns empregos son substituídos por outros, como ocorreu co paso da telefonía fixa á móbil, aínda que non necesariamente se recupere todo o emprego perdido.[27] A creación construtiva de postos de traballo, pola contra, supón que aparezan empregos ata agora inexistentes, tal é o caso dos pilotos de drones.

 

A posible destrución de emprego por un uso crecente de máquinas cada vez máis intelixentes ocupa máis e máis titulares na prensa, proba da preocupación social polo tema: “O avance tecnolóxico fai saltar as alarmas: canto emprego pode destruír?” -El Economista, 28/01/2013-; “Tecnoloxía versus emprego, novo asalto?” -El País, 6/7/2014-; “Quitarannos os robots o traballo en 2025?” -El Confidencial, 11/8/2014-; “Robots e emprego: o reto decisivo para reinventar a economía” -El Mundo, 13/7/2015-. Tamén é un tema que está na axenda das empresas. Recentemente tiven a oportunidade de participar nun interesante debate sobre o tema organizado por unha multinacional das TIC. É un tema de interese e preocupación crecentes e máis en países, como o noso, no que o desemprego é unha dramática realidade. Con todo, aínda non observo que preocupe especialmente aos nosos responsables políticos e académicos, polo menos non lles ocupa demasiado.

 

Poderiamos pensar que non falamos de nada novo, xa que esta preocupación convive connosco desde que temos máquinas capaces de realizar traballo útil para as persoas. Con todo, parece que agora son algo máis que matices os que nos permiten considerar que vivimos nun escenario diferente. Efectivamente, as máquinas introducidas na Revolución Industrial, como os teares industriais, foron vistas como unha ameaza para os artesáns da época, que vían perigar o seu traballo en mans de persoas con baixa cualificación, pero capaces de manipular máquinas moi sofisticadas para entón. Esta situación desembocou no “ludismo”, un movemento social encabezado por artesáns da industria téxtil a comezos do século XIX. Tim Harford [2015] valora así aos protagonistas deste movemento: os luditas non eran idiotas que pensaban que as máquinas destruirían o traballo en xeral, senón que eran obreiros cualificados que vían perigar precisamente os seus.

 

É notorio que desde que as máquinas empezaron a aparecer nas nosas vidas houbo unha acelerada transformación do traballo. A mecanización das tarefas agrícolas fixo que a xente do campo se desprazase masivamente ás cidades, buscando un posto nas industrias -no discorrer do século XX, a porcentaxe de traballadores no sector agrícola en EE.UU. pasou de supoñer máis do 40% a un exiguo 2%-. Despois, a automatización crecente dos procesos de fabricación foi desprazando o traballo ao sector servizos, algo ao que tamén contribuíu de modo moi notable a globalización da economía. Ao longo deste tempo as máquinas provocaron un cambio no traballo das persoas cara tarefas que, en xeral, requirían unha maior cualificación. De feito, ata agora a automatización operou sobre todo como complemento e apoio ao traballo humano, aumentando a súa produtividade, máis que a súa substitución. Pero isto deixou de ser así e todo apunta a que cada vez máis as persoas serán substituídas por máquinas máis e máis cualificadas e intelixentes, sen que o noso potencial de traballo sexa desprazado na mesma proporción cara a novos sectores ou actividades.

 

Globalmente a perda de postos de traballo pola irrupción de máquinas capaces de facer novas cousas tiña a súa contrapartida no emprego xerado pola propia industria dos dispositivos e servizos informáticos, así como os seus sectores afíns, e tamén polo creado ao amparo deles. De feito, a escala mundial o emprego foi aumentando historicamente en cantidade e calidade, debido, sobre todo, aos avances en ciencia e tecnoloxía, en particular cando estes teñen impacto no tecido produtivo. En calquera caso, existe unha enorme disparidade entre países ou rexións, mesmo a nivel local. Normalmente aumenta a calidade do emprego en zonas máis prósperas e tecnificadas e a súa cantidade nos países emerxentes.[28]  Diversos estudos indican que hai anos que a produtividade aumenta nalgúns países desenvolvidos sen que o faga o emprego. Así o puxeron de manifesto, por exemplo, Erik Brynjolfsson e Andrew McAfee [“Race Against the Machine: How the Dixital Revolution is Accelerating Innovation, Driving Productivity, and Irreversibly Transforming Employment and the Economy?”. Digital Frontier Press, 2011]. Segundo estes autores, a partir do ano 2000 a produtividade en EE.UU. seguiu aumentando pero non así o emprego nin os ingresos medios. De feito, a porcentaxe no crecemento de emprego no país ao longo da primeira década do noso novo milenio, foi o peor desde a Segunda Guerra Mundial. A explicación que dan a este fenómeno vén da crecente introdución de tecnoloxía nas nosas vidas. En todo caso, aínda que non se discute a influencia da tecnoloxía no emprego, si hai controversia entre os expertos do campo sobre se iso provocará un estancamento ou mesmo un descenso global do emprego a longo prazo.

 

O cambio que hoxe está a experimentar o mercado laboral e o que se albisca mesmo a curto e medio prazo, non ten precedentes na historia. Ata agora a automatización de actividades por máquinas produciuse nos segmentos relacionados con traballos para os que se requiría pouca formación. Nestes momentos a “automatización” do traballo empeza a afectar ao realizado por persoas cunha maior formación, mesmo con formación universitaria. Os empregos máis expostos á súa posible substitución por sistemas baseados en computadores e robotizados son os denominados “blue collars”, pero agora tamén empezan a perigar os “white collars”. É dicir, o daqueles profesionais que levan camisa en lugar de mono de traballo, para entendernos. Nin sequera están a salvo tarefas aparentemente difíciles de automatizar como o xornalismo, tal como apuntamos na táboa VI. Por outra banda, moitas das novas empresas e sectores de actividade non crean apenas emprego, polo menos non directo. Por exemplo, nas redes sociais hai centos de millóns de persoas activas, pero mantéñenas moi poucos traballadores e, máis aínda, cunha relación entre o número de empregados e a súa facturación moi inferior a outras grandes empresas de sectores máis tradicionais.[29] Tamén é certo que xeran emprego adicional, e non só no sector TIC senón ao redor dos servizos que ofrecen, como ocorre co transporte de mercadorías que move, nunca mellor dito, o comercio electrónico. En todo caso, parece que os únicos que aínda están totalmente a salvo de ver os seus traballos realízaos por unha máquina son os “without collars”, é dicir, os que levan camiseta en lugar de camisa. Son os que deseñan os sistemas que moven o mundo: Por exemplo, Larry Page e Serguéi Brin, que comezaron Google como un proxecto universitario en xaneiro de 1996 ou Mark Zuckerberg, creador de Facebook en 2004.

 

Segundo Martin Ford [2015], a mellor palabra para cualificar aos traballos susceptibles de automatización non é “rutineiros” senón “predicibles”. Tampouco que requiran un coñecemento experto para ser realizados os mantén a salvo das máquinas. Pensemos no traballo de interpretación de imaxes médicas que realizan os radiólogos ou na predición e descrición do tempo por parte dos meteorólogos.

 

Recentemente o servizo de predición meteorolóxica da Xunta de Galicia, Meteogalicia, incorporou un novo servizo, chamado GALiWeather, desenvolvido no Grupo de Sistemas Intelixentes do CiTIUS-USC, e que xera descricións textuais da predición meteorolóxica de curto prazo para cada un dos 314 municipios galegos, do mesmo xeito que o faría un meteorólogo, producindo textos indistinguibles dos que elaboran os expertos. Sirva de exemplo o seguinte, que apareceu na Web de Meteogalicia o domingo 23 de agosto de 2015, para Santiago de Compostela:

 

Ceos con nubes e claros ó comezo e cara a metade do período, aínda que ó final do mesmo predominarán moi anubrados. Haberá precipitacións o domingo, o luns e o mércores. En canto ás temperaturas, serán normais para as mínimas e baixas para as máximas respecto ó agardado para este período, con mínimas que ascenderán moderadamente e máximas que se manterán sen cambios. Vento forte do suroeste o domingo pola tarde. 

No referido ó estado da calidade do aire, manterase bo en xeral.

 

GALiWeather xera as descricións en linguaxe natural a partir de datos numéricos, coñecemento experto obtido dos meteorólogos e técnicas de “computación con palabras” -variables lingüísticas, cuantificadores difusos e outros-. Nun primeiro paso converte os datos en descricións lingüísticas básicas sobre o estado do ceo -nubes e precipitación-, vento e temperatura, así como o denominado Índice de Calidade do Aire. Despois compón expresións máis complexas, propias da narrativa en linguaxe natural, tanto en español como en galego. No traballo de Ramos-Soto e col. [2015] pode atoparse unha descrición técnica de como se deseñou e na web de Meteogalicia, en particular na sección de predición por concellos (http://www.meteogalicia.es/web/predicion/localidades/localidadesindex.action), pódese ver o resultado cada día.

 

Substituír por máquinas aos empregados dunha gasolineira ou aos caixeiros dun supermercado, é algo que vimos e vemos como inevitable e mesmo normal. Con todo, dannos calafríos cando vemos o recambio de redactores de noticias, consultores e mesmo profesores, por sistemas baseados en computadores cada vez máis intelixentes. Esta situación xa está a provocar que moitos traballadores cualificados teñan que optar por traballos que non requiren tanta cualificación, desprazando a quen os realizaba ou podería realizalos a chanzos máis baixos e así sucesivamente. Globalmente acentúase a sobrecualificación das persoas en relación aos traballos que desempeñan e á vez provócase a perda de postos de traballo. É coma se unha gran pirámide fose afundíndose progresivamente na area, diminuíndo progresivamente a súa altura e a súa base, e ao tempo fose desgastándose por efecto da erosión.

 

Por outra banda, hai un despoboamento progresivo dos traballos de media cualificación, en beneficio, de momento, dos que requiren maior creatividade, especialización, toma de decisións… e tamén dos menos cualificados, en parte polas dificultades para a súa automatización e tamén por razóns de custo fronte á alternativa humana. Este baleirado dos niveis intermedios é semellante ao que se dá nalgunhas árbores anciás, nas que se conservan as raíces e as ramas, pero o tronco vaise baleirando, ás veces ata quedar con pouco máis que a súa cortiza, ata caer ao chan.

 

Para que sexamos un pouco máis conscientes das tarefas que foron ou están a ser realizadas por máquinas cada vez máis sofisticadas, vexamos a táboa VI. Utilizamos nela unha moi simple clasificación das tarefas en dous eixos: un clasifícaas como sistemáticas ou non e o outro reflicte o nivel de coñecemento do dominio necesario para a realización da tarefa. Na primeira e segunda revolucións industriais, a mecanización e unha mellor organización do traballo tiveron impacto fundamentalmente nas tarefas máis sistemáticas e de carácter manual. Así ocorreu, por exemplo, no sector agrícola e gandeiro ou no industrial, como a fabricación de automóbiles. A computarización da nosa sociedade foi permitindo progresivamente a automatización de tarefas máis complexas, para cuxa resolución é necesario ter un alto coñecemento do dominio. Os coñecidos como sistemas expertos son un claro exemplo diso. Como o seu nome suxire, trátase de sistemas que no seu ámbito específico do saber alcanzan unha competencia comparable, polo menos, á dun experto humano en dito ámbito. A medida que se foi adquirindo experiencia e se desenvolveron máis e mellor as tecnoloxías para o deseño e a síntese de sistemas intelixentes, foise avanzando en todos os cuadrantes da táboa VI, tal como se indica na figura 5.

 

 

Nivel de coñecemento do dominio  Tipo de tarefa
Non sistemática Sistemática
Alto Sistemas de elaboración de noticias[30] Revolución dixital 

Sistemas expertos para a análise de riscos na banca

Medio-Baixo Robots para o fogar –ou outros servizos-[31] Primeira e segunda revolución industrial 

Mecanización agrícola e robots para soldadura

 

Táboa VI: Exemplos de sistemas intelixentes para a solución de distintos tipos de tarefas.

 

Son cada vez máis sectores de actividade e tarefas nas que se avanza cara a un futuro de automatización. De feito, a tecnoloxía asistente xa permitiría ir máis lonxe, pero por múltiples razóns non se avanzou todo o que se podería na aplicación da automatización, robotización e dos sistemas intelixentes a problemas reais. Ás veces por unha cuestión de custo/beneficio,[32] como xa comentamos, e outras pola non aceptación por parte dos potenciais usuarios ou clientes. É o caso dos pilotos automáticos e a súa capacidade para pilotar de forma autónoma as aeronaves, algo que non se fai do todo por cuestións non tanto de dificultade ou risco como pola difícil aceptación social ou pola responsabilidade civil que terían que asumir as compañías aseguradoras.

 

Todo o que se nos está aveciñando en relación ás máquinas intelixentes esixe que nos anticipemos aos profundos cambios que se darán nos perfís profesionais, no emprego e na distribución do mesmo. A reacción das administracións públicas e das universidades antóllase fundamental para que os nosos mozos, en especial os novos titulados, poidan adaptarse ás novas contornas laborais. Non é unha cuestión de contidos docentes senón de “cometidos” dunha nova educación. Non chega con introducir tecnoloxía só en materias específicas ou tratar o emprendemento unicamente nas materias relacionadas co mundo da empresa. Por outra banda, tamén se require “ensinar hoxe o necesario para aprender o que se deba saber mañá”, algo que, por certo, tamén temos que lograr coas máquinas intelixentes.

 

 

Nivel de coñecemento do dominio Tipo de tarefa
Non sistemática Sistemática
Alto  
Medio-Baixo      

 

Figura 5: Evolución temporal na resolución artificial de tarefas de distinta complexidade.

 

 

Requiriranse tamén cambios importantes no modelo económico, de produción, de repartición de beneficios e do traballo. Necesitamos unha nova economía e que sexa o estado e non o mercado quen fixe certas regras. Á fin e ao cabo, os avances tecnolóxicos en xeral non son bos ou malos sen máis. Adoitan ser neutros e é o seu uso o que realmente saca á luz as súas potenciais bondades ou maldades. Por iso os responsables das políticas públicas non poden permanecer impasibles mentres os intereses menos sociais obteñen o beneficio propio do prexuízo colectivo. É seguro que haberá que repartir o traballo: non serán necesarias, e ata poida que posibles, xornadas de 40 horas semanais. Por outra banda, xa hoxe, tal como apunta Enrico Moretti [2012], os potenciais empregados non están ben distribuídos en función da localización dos empregos dispoñibles. Nun futuro non moi afastado o traballo crearase e eliminarase localmente a ritmos máis acelerados que na actualidade, polo que este desequilibrio acentuarase moito máis, salvo que apliquemos medidas de anticipación e paliativas. Terá que haber tamén unha maior mobilidade de traballadores, tratando de evitar as bolsas de desemprego crónico que aparecen naquelas zonas nas que circunstancialmente houbo unha enorme oferta de emprego, pero onde esta desapareceu co tempo -sectores primarios, manufactura…-.

 

Fai uns 70 anos Albert Einstein advertía que os pobos exitosos serían os que xerasen coñecemento e o rendibilizasen, formando aos mozos para iso e logrando que queden no país. Os outros países, dicía, quedarán con litorais fermosos, con igrexas, minas, cunha historia fantástica; pero probablemente non queden nin coas mesmas bandeiras, nin coas mesmas fronteiras, nin moito menos cun éxito económico. Estamos a velo. Os países máis robotizados -Xapón, Alemaña, EE.UU.-, son os que teñen mellores datos de emprego e un tecido produtivo máis competitivo. No mundo cada vez máis computarizado e robotizado no que vivimos, os países que busquen crear e protexer o emprego, terán que formar mellor aos mozos, apostar máis pola I+D e a súa transferencia aos sectores produtivos e lograr unha mellor distribución da riqueza e do traballo. O resto nin sequera poderán optar por baixar o custo da man de obra, porque esta será mecánica. Non temos outra saída que a educación, en definitiva.[33]

 

 

  1. Ética natural para a Intelixencia Artificial

 

A ciencia ilumina o descoñecido e faio cada vez máis coas luces que achega a tecnoloxía. Pero para que non nos pase como na viñeta de “El Roto”, na que un home reflexionaba dicíndose: “Eu seguía con fe a luz que me guiaba, ata que descubrín que procedía da lanterna que levaba na miña man”, é necesario que a luz que nos guíe non sexa só a da nosa ambición persoal senón a que alume un camiñar colectivo e positivo para o conxunto das persoas. Isto require, de entrada, que sexamos “seres humanos”. De feito, a Intelixencia Artificial, para ser verdadeiramente útil, deberá ser unha mestura de ciencia, tecnoloxía e humanismo.

 

Son moitas as cuestións éticas que deben ser contempladas no desenvolvemento e uso dunhas máquinas cada vez máis intelixentes. Ata onde levamos a autonomía dos sistemas intelixentes? Pensemos no caso dos pilotos automáticos, por exemplo. Ten que haber un límite á aprendizaxe nas máquinas? Como debemos xestionar a información, cada vez maior e máis sensible, á que acceden ou que obteñen as máquinas? A información da que dispón o “cerebro” dos sistemas de Big Data non só é inxente senón que en moitos casos resulta moi comprometida. Quen controla ás máquinas que á súa vez controlan unha parte crecente das nosas vidas?[34] Son suficientes as tres leis da robótica de Asimov? Como garantir que se cumpran sempre?… Nin é o obxecto deste documento dar resposta a estas e outras preguntas da mesma índole, nin teño respostas claras á maioría delas. Pero si quero apuntar algo máis respecto diso.

 

Conforme avanza a IA, crece tamén a preocupación polo seu impacto nas nosas vidas. Non son só os postos de traballo o que moita xente cre que periga neste mundo computarizado no que vivimos. Hai quen pensa que deixar cada vez máis temas e máis sensibles en mans das computadoras ponnos en perigo.[35] Paradoxalmente, moitos dos que cren que un robot só poderá ser un fiel reprodutor daquilo que se lle ordena a través da programación, confesan a súa preocupación por un futuro no que estas máquinas poidan chegar a ter comportamentos inesperados e lesivos para os nosos intereses. Este é un tema que foi amplamente abordado na literatura e no cinema de ciencia ficción. Atérranos e á vez atráenos o que seres artificiais poidan ter tal grao de autonomía que se desmarquen dos obxectivos e do comportamento fixado polo seu creador -programador- e establezan outros en función de escuros intereses propios. Preocúpanos a idea de que “as máquinas poidan maquinar”, tanto máis, canto máis intelixentes cheguen a ser. Evidentemente, estou a utilizar aquí a primeira acepción de maquinar que inclúe o DRAE: “urdir, tramar algo oculta y artificiosamente”.

 

Tamén resulta preocupante o que eu denomino “efecto Sansón”, relacionado coa crecente externalización de tarefas cara ás máquinas, e que provoca a progresiva perda das nosas habilidades cognitivas, motoras… Sansón perdeu a súa forza ao cortarlle o pelo e nós perdemos as nosas capacidades e habilidades ao non exercitalas ou ao cultivar outras. Esta é a tese de Nicholas Carr no seu libro: “Atrapados. Como las máquinas se apoderan de nuestras vidas” -Taurus, 2014-. De todos os xeitos, non podemos botarlle toda a culpa á computarización da sociedade. Primeiro polo feito de que non se produce espontaneamente, senón pola nosa acción e desexo. Pero ademais, conforme a nosa vida faise máis complexa e esixente, máis responsabilidades imos delegando e non en xeral en mans da tecnoloxía. Así, delegamos cousas tan importantes como a educación dos nosos fillos, moitas veces totalmente, ou as decisións sobre o noso patrimonio -o consello de administración dun banco ou dunha gran corporación ten en xeral unha pequena propiedade na empresa e, con todo, ten un poder case plenipotenciario na toma de decisións sobre os recursos que depositamos nela-.

 

É lóxico que a creación de máquinas cada vez máis intelixentes sexa un tema de reflexión e ata de preocupación. Pero o que máis debe preocuparnos somos nós mesmos. Pensando mesmo que poida chegar o día en que a intelixencia das máquinas sexa tanta que lles permita operar á marxe dos usos para os que foron concibidas, creo que é máis factible que calquera máquina sexa reprogramada con mala intención por persoas para que atendan a obxectivos ben distintos aos previstos no seu deseño. Non sei se hai límites á intelixencia artificial, pero a maldade e a falta de ética dalgunhas persoas non os teñen, e isto xa é unha realidade.

 

 

  1. Publish, even rubbish, or perish

 

Nun libro homenaxe ao profesor Zadeh, pai dos conxuntos difusos e da lóxica difusa -fuzzy sets and fuzzy logic-,[36] fixen algunhas reflexións sobre o camiño percorrido pola lóxica difusa [Barro, 2013]. Ditas Reflexións sérvenme en boa medida para o mundo da IA e, en parte tamén, para a I+D no seu conxunto.

 

O mundo da investigación non é alleo ás modas e ás tendencias, algo que inflúe dun modo moi significativo no que é estudado, investigado, publicado e financiado -especialmente con recursos públicos-. Así ocorreu no campo da lóxica difusa, onde o número de publicacións que conteñen a palabra “fuzzy” no seu título, palabras clave ou resumo, veuse duplicando desde a súa orixe cada 5 anos aproximadamente. Sen dúbida a palabra “fuzzy” foi durante moitos anos unha buzzword, ou palabra de moda, no mundo da ciencia e a tecnoloxía. Este incremento xeométrico no número de publicacións non se traduciu nun impacto social e económico equivalente. De feito, se pasamos a produción científica deste campo pola “peneira da innovación”, veremos que o número de aplicacións ou desenvolvementos tecnolóxicos reais, así como de patentes e resultados comercializados, non seguiu unha evolución nin moitísimo menos parecida á das publicacións. As razóns seguro que son moitas, pero interésame especialmente unha, que xa analicei en dito artigo, e que creo que se pode facer extensiva en boa medida ao campo da Intelixencia Artificial e seguro que a moitos outros. En definitiva, non se corresponde o investigado e publicado co seu impacto na sociedade e o mercado. Peor aínda, a produción científica dá acubillo a moitos artigos que non reúnen nin o interese nin a calidade suficientes. Son cómplices diso, e ás veces indutoras, algunhas editoriais e congresos científicos, pero quizais a razón máis poderosa é a presión dos propios investigadores, que realizan o seu traballo baixo a espada de Damocles que sintetiza unha coñecida expresión no mundo da ciencia: “publish or perish”,[37] publica ou perece. É máis, a xulgar por boa parte do que se publica, unha expresión máis apropiada sería: “publish, even rubbish, or perish”. Tamén inflúe na situación comentada o illamento no que aínda hoxe traballan moitos científicos da IA, moitas veces sen a menor conexión co tecido produtivo, co mundo da industria e con outros ámbitos das ciencias e as enxeñerías, polo que non só se desaproveitan moitas oportunidades de transferencia senón que non poucas veces se traballa no que non é máis que rizar o rizo ou no sexo dos robots.[38]

 

Traballar en compartimentos estanco produce endogamias intelectuais e realimentacións propias e dos nosos clons científicos, o que impide avances significativos e a apertura a outros ámbitos do saber e da tecnoloxía. Se as novas ferramentas conceptuais, metodolóxicas ou da computación non saen da nosa contorna, está a limitarse a súa utilidade no desenvolvemento de novas aplicacións, produtos e servizos, válidos tanto para fertilizar outras áreas do coñecemento como para mellorar a contorna socioeconómica.

 

 

A honra e o pracer de formar parte da RAGC

 

Charles Percy Snow popularizou a expresión de “as dúas culturas” en 1959. Foi na súa participación dentro do ciclo de Conferencias da Universidade de Cambridge. Referíase ao que el interpretaba como unha evidente fractura entre os mundos das ciencias e o das humanidades. Hoxe esta división non é entre as populares “ciencias e letras” senón que aparece entre case cada ámbito do coñecemento e do desenvolvemento tecnolóxico, tal é o avance que se produciu e se segue a producir no coñecemento do que existe e o desenvolvemento do que se crea. Por iso a Real Academia Galega de Ciencias (RAGC) ten que empeñarse en poñer en valor a ciencia e a tecnoloxía, en particular a que se fai en Galicia, perseguir con afán o seu uso en beneficio das persoas, procurando que os resultados da investigación cheguen ao tecido produtivo e ao tecido social, conseguir a “alfabetización” científica e tecnolóxica da xente e traballar para engadir luz onde hoxe aínda hai tebras.

 

É unha ousadía facer propostas a esta academia no día do meu ingreso, pero creo que unha das máis nobres responsabilidades que ten, e que tamén eu asumo a partir de hoxe, é insistir na importancia de facer máis ciencia e lograr que se invista máis e mellor nela. Conten comigo para ese labor.

 

Bibliografía

 

  • Argall, B.D., Chernova, S., Veloso, M. e Browning, B. “A survey of robot learning from demostration”. Robotics and Autonomous Systems, vol. 57, No. 5, pp. 469-483, 2009.
  • Arkin, R.C., “Behaviour-Based Robotics”. The MIT Press, 1998.
  • Barro, S., “La inteligencia de las máquinas”. El Correo Gallego, Suplemento de Ciencia y Tecnología. 29 de noviembre de 1994.
  • Barro, S., “El campeón de ajedrez y la máquina que sabia sumar: la ficción científica (parte 1ª); la realidad (parte 2ª); la reflexión (parte 3ª). El Correo Gallego, Suplemento de Ciencia y Tecnología, Nº: 85, 86 y 87, 1997.
  • Barro, S., “El coeficiente de inteligencia de las máquinas”. El Correo Gallego, Sección de Ciencia, 8 de noviembre de 1998.
  • Barro, S., “Os computadores do século pasado”. Revista Galega do Ensino. Número especial: “Balances dun século”. I, Núm. 28, 251-272, 2000. En gallego.
  • Barro, S., “Breve recorrido por la historia de la moderna computación”. En: Fronteras de la computación, S. Barro y A. Bugarín (Coord.), Díaz de Santos, pp. 1-38, 2002.
  • Barro, S. y Bugarín, A., “Fronteras de la computación”, Díaz de Santos, 2002.
  • Barro, S., “Another half century of progress in fuzzy logic?” En: On Fuzziness. A Homage to Lotfi A. Zadeh, Springer, pp. 23-29, 2013.
  • Barro, S., “Turing indultado”, El Correo Gallego, 3 de enero de 2015.
  • Bien, Z., Bang, W.C., Kim, D.Y. e Han, J.S., “Machine intelligence quotient: its measurements and applications”. Fuzzy Sets and Systems, Vol. 127, No. 1, pp. 3-16, 2002.
  • Brady, M. e Paul, R. (Eds.), “Robotics Research: The First International Symposium”. The MIT Press, 1984.
  • Breazeal, C., Brooks, A., Gray, J., Hoffman, G., Kidd, C., Lee, H., Lieberman, J., Lockerd, A. e Chilongo, D., “Tutelage and Collaboration for Humanoid Robots”. International Journal of Humanoid Robots, vol. 1, no. 2, pp. 315-348, 2004.
  • Çelikkanat, H., Orhan, G., Pugeault, N., Guerin, F., Sahin, E. e Kalkan, S., “Learning and Using Context on a Humanoid Robot Using Latent Dirichlet Allocation“. Joint IEEE International Conferences on Development and Learning and Epigenetic Robotics (ICDL-Epirob), pp. 201-207, 2014.
  • Ceruzzi, P.E., “A History of Modern Computing”. The MIT Press, 2003.
  • Copeland, B.J., “Alan Turing: El pionero de la era de la información”. Turner Publicaciones, 2012.
  • Crowley, J.L., “Principles and Techniques for Sensor Data Fusion”. En: Multisensor Fusion for Computer Vision, vol. 99, “NATO ASI Series”, pp. 15-36, 1993.
  • Demiris Y. e Meltzoff, A., “The Robot in the Crib: A Developmental Analysis of Imitation Skills in Infants and Robots”. Infant Child Dev., 17(1), pp. 43-53, 2008.
  • Dertouzos, M.L., “What Will Be: How the New World of Information Will Change Our Lives”. HarperEdge Publishers, New York, 1997.
  • Escrig, A., “El reloj milagroso y otras historias científicas sobre robótica, automática y máquinas prodigiosas”. Guadalmazán, Colección Divulgación Científica. 2014.
  • Fernández-Delgado, M., Cernadas, E., Barro, S. e Amorim, D., “Do we Need Hundreds of Classifiers to Solve Real World Classification Problems?” Journal of Machine Learning Research, vol. 15, pp. 3133-3181, 2014.
  • Ford, M., “The Rise of the Robots”. Oneworld Publications, 2015.
  • French, R.M., “The Turing Test: the first 50 years”. Trends in Cognitive Science, Vol. 4, No. 3, 115-122, 2000.
  • Harford, T., “Man v machine (again)”, FT Magazine, 13 de marzo de 2015.
  • Hernández-Orallo, J., e Dowe, D.L., “Measuring universal intelligence: Towards an anytime intelligence”. Artificial Intelligence, No.174, pp. 1508–1539, 2010.
  • Herrera, F., “Inteligencia Artificial, Inteligencia Computacional y Big Data”, Servicio de Publicaciones de la Universidad de Jaén, 2014.
  • Hovland, G.E., Sikka, P. e McCarragher, B.J., “Skill acquisition from human demonstration using a hidden markov model”. Proceedings of the 1996 IEEE international conference on robotics and automation, IEEE Press, pp. 2706-2711, 1996.
  • Iglesias, R., Alvarez-Santos, V., Rodriguez, M.A., Santos-Saavedra, D., Regueiro, C.V. e Pardo, X.M., “Pyramid Representations of the Set of Actions in Reinforcement Learning”. Bioinspired Computation in Artificial Systems, vol. 9108, “Lecture Notes in Computer Science”, pp. 203-212, 2015.
  • Ikonicoff, R., “La conciencia y la máquina”, Galaxia Gutenberg, Círculo de Lectores, 1999.
  • Krol, M., “Have we witnessed a real-life Turing test?” IEEE Computer, marzo, 27-30, 1999.
  • Moretti, E., “The new geography of Jobs”. Houghton Mifflin Harcourt, Nova York, 2012.
  • Park, H.J., Kim, B.K. e Lim, K.Y., “Measuring the Machine Intelligence Quotient (MIQ)f Human-Machine Cooperative Systems”. IEEE Trans. on Systems, Man, and Cybernetics, Part A: Systems and Humans, Vol. 31, No. 2, pp. 89-96, 2001.
  • Quigley, M., Conley, K., Gerkey, B., Faust, J., Foote, T., Leibs, J., Wheeler, R. e Ng, A.Y, “Ros: an open-source robot operating system”. ICRA workshop on open source software, vol. 3, 2009.
  • Quintía, P., Iglesias, R., Regueiro, C. V., Cernadas, E. e Rodríguez, M., “Robot learning from environment interaction and observation of human-behaviour”. En: Towards Autonomous Robotic Systems (TAROS´08), Edimburgo, Reino Unido, pp. 17-24, 2008.
  • Quintía, P.; Iglesias, R.; Rodríguez, M. e Regueiro, C. V., “Learning on real robots from experience and simple user feedback”. Journal of Physical Agents, 7 (1), pp. 57-65, 2013.
  • Majidi, C., “Soft Robotics: A Perspective—Current Trends and Prospects for the Future”, Soft Robotics, March, 1(1): 5-11, 2014.
  • Mitchell, T., “Machine Learning. McGraw Hill, p. 2, 1997.
  • Ramos-Soto, A., Bugarín, A., Barro, S. e Taboada, J., “Linguistic Descriptions for Automatic Generation of Textual Short-Term Weather Forecasts on Real Prediction Data”. IEEE Transactions on Fuzzy Systems, Vol. 1, No. 23, pp. 44-57, 2015
  • Ramussen, J., “Information Processing and Human-Machine Interaction – An approach to cognitive engineering”. North-Holland, Amsterdam, 1986.
  • Russell, S. e Norvig, P., “Artificial Intelligence: A Modern Approach” (3ª edición), Prentice Hall, 2010.
  • Sigaud, O. e Peters, J. (Eds.), “From Motor Learning To Interaction Learning in Robotics”. Springer-Verlag, 2010.
  • Strathern, P., “Turing y el ordenador”. Siglo XXI de España Editores, S.A., 1999.
  • Sung, B., Wang, Y. e Banda, J., “Gait characteristic analysis and identification based on the iPhone’s Accelerometer and Gyrometer”. Sensors, 14, 17037-17054, 2014.
  • Thomaz, A.L. e Breazeal, C., “Teachable robots: Understanding human teaching behaviour to Guild more effective robot learners”. Artificial Intelligence, 172, pp. 716-737, 2008.
  • Thrun, S., Burgard, W. e Fox, D., “Probabilistic robotics”. The MIT Press, 2005.
  • Trillas, E., “La Inteligencia Artificial. Máquinas y personas”. Temas de Debate, Editorial Debate, 1998.
  • Trimmer, B., “A Journal of Soft Robotics: Why Now?”. Soft Robotics, March 1(1): 1-4, 2014.
  • Turing, A.M., “Computing Machinery and Intelligence”. Mind, vol. 49, pp. 433-460, 1950.
  • von Neumann, J. e Morgensten, O., “Theory of Games and Economic Behaviour”. Princeton University Press, 1944.
  • von Neumann, J., “O computador e o cerebro”. Prólogo de Senén Barro y traducción de Elisardo Antelo. En: Colección Clásicos do Pensamento Universal, Universidade de Santiago de Compostela – Fundación BBVA. 2006.
  • Williams, M.R., “A History of Computing Technology”. Wiley-IEEE Computer Society Press, 2ª edición, 1997.
  • Yeh, W., e Barsalou, L.W., “The situated nature of concepts”. The American journal of psychology, pp. 349–384, 2006.
  • Zadeh, L.A., “Fuzzy Sets”. Information and Control, Vol. 8, No. 3, pp. 338-353, 1965.
  • Zadeh, L.A., “Fuzzy logic, neural networks, and soft computing”. Communications of the ACM, Vol. 37, No. 3, pp. 77-84, 1994.
  • Zhag, Y., Pan, G., Jia, K., Lu, M., Wang, Y. e Wu, Z., “Accelerometer-based gait recognition by sparse representation of signature points with clusters”. IEEE Transactions on Cybernetics, 2015.

[1] En 1956, durante unha conferencia no Dartmouth College, unha universidade privada de EE.UU., acuñouse formalmente o termo Intelixencia Artificial (IA), aínda que as máquinas ou sistemas artificiais aos que poder atribuír certa intelixencia xa eran obxecto de investigación desde algúns anos antes e a idea e o interese por logralo algún día, desde moito tempo atrás. Concretamente, foi John McCarthy quen acuñou a expresión «intelixencia artificial» para denominar á ciencia e enxeño de facer máquinas intelixentes, especialmente programas de cómputo intelixentes. Segundo Nilsson [1998], nunha definición especialmente elegante e sinxela, a IA está relacionada con condutas intelixentes en artefactos. A IA non só se relaciona co “facer”, vertente tecnolóxica, senón co “coñecer”, vertente científica. De feito, ambas fotalécense mutuamente. Para fabricar máquinas intelixentes é de extraordinaria axuda coñecer como os seres vivos desenvolven comportamentos e capacidades que asociamos coa intelixencia -bioinspiración-, como ocorreu co primeiro modelo de neurona artificial presentado por Warren McCulloch e Walter Pitts en 1943. Ao tempo, os avances no deseño e construción dos sistemas artificiais intelixentes serviron a miúdo para seguir avanzando no estudo e comprensión da intelixencia nos seres vivos -tecnoinspiración-.

[2] A evolución que experimentou a industria da computación desde o descubrimento do transistor non tivo parangón en ningún outro ámbito da tecnoloxía. Son abundantes as análises feitas respecto diso e as referencias a datos que ilustran a evolución na capacidade de almacenamento e de cálculo dos computadores ao longo do tempo. De feito, os constantes avances que vivimos nas últimas décadas sintetízanse na Lei de Moore. Gordon Moore, cofundador de Intel, tras observar a evolución inicial en canto á relación prezo/prestacións dos chips desenvolvidos para o deseño de computadores, dixo en 1965 que a capacidade destes dobraríase cada ano -en realidade isto vén ocorrendo cada dezaoito meses, aproximadamente-. Esta predición deu lugar á famosa lei que leva o seu nome. En boa medida esta lei segue vixente e é previsible que se manteña ata que se alcancen os límites físicos en canto a integración de transistores mediante a tecnoloxía do silicio. Mesmo máis aló, xa que empezan a aparecer alternativas a este material, como o grafeno, e tamén outras aproximacións para seguir aumentando a capacidade de cálculo, como a computación cuántica e os computadores neuromórficos -cun paralelismo masivo-.

A día de hoxe o computador máis rápido do mundo é chinés, chámase Tianhe-2 e está instalado no Centro de Computación Nacional, en Cantón. Ten unha capacidade de procesamento de 33,86 petaflops -un petaflop son mil billóns de cálculos por segundo-, o dobre que Titan, a máquina de cómputo máis potente que hoxe ten EE.UU. Pero este país non se resigna a un segundo posto. Recentemente Barack Obama, presidente dos EE.UU., asinou unha orde executiva -Creating a National Strategic Computing Initiative- para a construción, nun prazo menor de dez anos, dun computador capaz de realizar un exaflop; é dicir, un trillón de operacións por segundo. De seguir esta evolución, no ano 2040, no que se sitúa o relato que lles estou narrando, teremos máquinas que roldarán o zettaflop. Mil trillóns de operacións por segundo! É dicir, un un seguido de 21 ceros. Ou, o que é o mesmo, un computador capaz de realizar uns 13.000 billóns de operacións diarias por cada unha das persoas que hoxe poboamos a terra. Pensarei que facer coas miñas.

De todos os xeitos, non debemos obsesionarnos pensando que é a forza bruta de computación o que nos permitirá lograr o impensable anos atrás. O exemplo máis extremo diso quizais sexa a viaxe á lúa. O computador de a bordo do Apolo 11, que levou en 1969 aos primeiros homes á lúa, tiña 4 Kbytes de RAM e 72 Kbytes de ROM. Os iPhone 6 actuais poden chegar a 128 Gbytes, 32 millóns de veces máis que a memoria RAM do Apolo, e os novos procesadores que se están deseñando para os móbiles teñen unha potencia de cálculo que supera o billón de instrucións por segundo. Persoalmente creo que a do Apolo 11 foi a maior fazaña xamais realizada, tanto individual como colectivamente. Nin sequera o redescubrimento de América por Cristóbal Colón ou as exploracións polares de Roald Amundsen e Ernest Henry Shackleton, son comparables a viaxar á lúa nunha “caixa de zapatos” cuberta de papel de prata e coa única axuda dunha “calculadora”.

 

[3] Medir a intelixencia dun sistema artificial é algo que esperta a curiosidade e ao tempo pode ter repercusións prácticas. A proposta máis coñecida é o test de Turing, que se reduce a comparar persoas e máquinas nun diálogo a cegas, entendendo que se a máquina é capaz de facerse pasar por unha persoa ante un ou máis interlocutores humanos, entón hai que recoñecerlle intelixencia. Trátase dunha proposta de todo ou nada, e exposta como unha condición suficiente, aínda que non necesaria. Desde que foi enunciado por Alan Turing, en 1950, realizáronse diversas predicións erradas sobre cando este test sería superado por unha máquina. Outras aínda teñen marxe como para poder cumprirse, como a realizada por Raymond Kurzweil, actualmente director de enxeñería en Google, que sitúa o momento en 2029. Hai propostas máis prácticas en relación á intelixencia das máquinas e a forma de medila, en particular aquelas que buscan cuantificar o grao de intelixencia dos sistemas artificiais mediante a comparación con outros que operen no seu mesmo ámbito de competencia. De calquera modo, o adxectivo “intelixente” asociado aos máis diversos produtos úsase cada vez máis para atraer ao potencial consumidor ou cliente. Desvirtúase así a semántica que asociamos ao devandito termo aqueles que nos dedicamos ao mundo da intelixencia artificial ou a intelixencia nas máquinas. De feito, desde hai anos abúsase do adxectivo intelixente para cualificar produtos que simplemente presentan algunha mellora ou capacidade singular entre a oferta existente no mercado. Chegouse mesmo a cualificar como intelixentes uns expendedores de líquido para matar mosquitos, só polo feito de desconectarse polo día, aínda que permanezan enchufados á rede eléctrica. Podemos poñer centos de exemplos máis. Sirvan para ilustrar o devandito os cinco seguintes, que foron recentemente presentados nunha das feiras tecnolóxicas máis importantes do mundo: Consumer Electronics Show (CES), celebrada anualmente en Las Vegas: Unha lámpada que pode funcionar ata 4 horas durante os cortes de luz; unha pota que pode controlarse desde o móbil; un brazalete cun sensor de raios ultravioleta; un robot doméstico limpacristais -este é o máis parecido a un sistema intelixente dos cinco-; e  un pixama fabricado por Intel -a este paso pronto veremos a Inditex fabricando microprocesadores-, que conta con diversos sensores -temperatura corporal, ritmo respiratorio e outros-, cuxos datos poden enviarse a un móbil.

Aínda que é difícil definir en que sentido se está a falar de “intelixencia” en sistemas artificiais, normalmente deberiamos considerar que un sistema ten certo grao de intelixencia cando posúe unha autonomía e riqueza de comportamento significativas en dominios dinámicos e complexos, presenta un alto grao de competencia en áreas especializadas do coñecemento humano e/ou é capaz de aprender a través da experiencia adquirida sobre o contorna no que opera. Con todo, tal como se dixo, existe unha forte tendencia a asociar con gran “alegría” o adxectivo intelixente a sistemas artificiais que nin de lonxe posúen algunha destas características.

[4] A obra de Ramón e Cajal, “Textura do sistema nervioso do home e dos vertebrados”, comeza cunha afirmación inequívoca: “O sistema nervioso representa o último termo da evolución da materia viva e a máquina máis complicada e de máis notables actividades que nos ofrece a natureza”. Cada vez sabemos máis desta asombrosa máquina natural e imos construíndo outras artificiais que poderán chegar a superala en todas as súas capacidades. Marvin Minsky, o único dos considerados pais da IA que segue vivo, e recente Premio Fronteiras do Coñecemento da Fundación BBVA, cre que é cuestión de tempo que logremos construír máquinas máis intelixentes que as persoas. Segundo el, ademais, non se lograron os ambiciosos obxectivos da Intelixencia Artificial que se fixaron nos anos 50 e 60, ao fío dos primeiros e asombrosos pasos dos investigadores no campo, debido aos recortes de financiamento en I+D, que si era abundante e cunha enorme liberdade de execución durante a Guerra Fría. Que paradoxo! A ameaza de guerra e a guerra mesma, facendo avanzar o coñecemento humano e o seu desenvolvemento tecnolóxico. Tamén Rafael Yuste, o científico español responsable do proxecto BRAIN de EE.UU., cre que o noso coñecemento actual do cerebro non pasa do 3 ou 4 nunha escala de 10, pero que canto máis se coñeza sobre o funcionamento do cerebro, máis capacidade haberá de reforzalo con interfaces cerebro-máquina.

[5] Stephen Hawking foi quizais o máis popular de todos os asinantes dunha carta aberta sobre robots de uso militar, presentada na sesión inaugural do IJCAI -o congreso máis prestixioso en IA-, o 28 de xullo de 2015. Segundo os autores deste manifesto, as armas autónomas son os Kalashnikov do futuro. A IA ten un gran potencial para beneficiar de moitas maneiras á humanidade e ese, e non outro, debe ser o obxectivo que guíe o desenvolvemento do campo.

[6] Nun dos seus relatos de ciencia ficción, Runaround, Isaac Asimov enunciou as que se coñecen como tres leis da robótica -wikipedia-:

  1. Un robot non fará dano a un ser humano ou, por falta de acción, permitirá que un ser humano sufra dano.
  2. Un robot debe obedecer as ordes dadas polos seres humanos, agás se estas ordes entrasen en conflito coa 1ª Lei.
  3. Un robot debe protexer a súa propia existencia na medida en que esta protección non entre en conflito coa 1ª ou a 2ª Lei.

Realmente, aínda que deseñásemos os robots de acordo con estas leis e pensando en que se cumprisen escrupulosamente, son múltiples as situacións nas que as cousas poderían non ir de todo ben: por erros de percepción, razoamento ou acción do robot; por cambios no seu comportamento, debido a mecanismos de aprendizaxe máquina incorporados ao robot; por virus informáticos ou sabotaxes…

 

[7] No Museo Histórico Militar da Coruña contan con unha destas máquinas.

[8] John Nash e Alice, a súa muller, morreron o 23 de maio de 2015 nun tráxico accidente de coche. Poucos meses antes outorgábanlle a Nash o Premio Abel, considerado como o Premio Nobel das matemáticas, polos seus estudos na área da teoría de ecuacións diferenciais non lineais parciais. Está claro que era unha mente marabillosa.

[9] Por suposto, isto non significa que moitos avances de excepcional relevancia no ámbito da computación non viñesen da man do software. De feito, en xeral cada xeración de computadores é unha mestura de hardware e software. Pensemos no que hoxe chamamos simplemente Web e nos dispositivos que soportan as altas velocidades de transferencia de datos entre computadores.

[10] Intelixencia -do latín intellegentĭa- é a capacidade de entender, asimilar, elaborar información e utilizala adecuadamente. É a capacidade de procesar información e está intimamente ligada a outras funcións mentais como a percepción -capacidade de recibir a devandita información- e a memoria -capacidade de almacenala-. Definir que é a intelixencia é sempre obxecto de polémica; as definicións de intelixencia poden clasificarse en varios grupos: as psicolóxicas, mostrando a intelixencia como a capacidade cognitiva, de aprendizaxe e relación; as biolóxicas, que consideran a capacidade de adaptación a novas situacións; as operativas… Tal diversidade indica o carácter complexo da intelixencia, a cal só pode ser descrita parcialmente mediante enumeración de procesos ou atributos que, ao ser tan variados, fan inviable unha definición única e delimitada, dando lugar a definicións tan singulares como a seguinte: «a intelixencia é a capacidade de adquirir capacidade», de Woodrow, ou a de Bridgman, quen dixo que «a intelixencia é o que miden os test de intelixencia».

[11] A historia dos computadores e os seus usos está infestada de predicións incumpridas, probablemente como en ningún outro ámbito científico-tecnolóxico. No caso particular da IA ocorreu o mesmo. Herbert Simon e Allen Newell, dúas das persoas que tiveron unha maior influencia no desenvolvemento da IA -o primeiro deles, por certo, foi ademais Premio Nobel de Economía-, dixeron en 1958 que en dez anos un computador sería campión do mundo de xadrez. Tardáronse trinta anos máis en logralo, pero certamente así foi.

[12] Unha das primeiras persoas en abordar a posibilidade de construír máquinas intelixentes foi Alan Turing. Ademais, estaba convencido de que a forma de facelo era a través da programación e non mediante a construción física de máquinas.

[13] As velocidades no cerebro non cambian -en todo caso fano ao ritmo que marca a evolución: moitos miles de anos-; nos computadores as velocidades de conmutación crecen moi rapidamente, segundo vaise desenvolvendo a tecnoloxía -anos-.

[14] O cerebro necesita nutrientes como azucre, osíxeno… mentres que os computadores funcionan con electricidade.

[15] Estímase que hai uns 100.000 millóns de neuronas no cerebro. Podemos considerar que as neuronas teñen de media unhas 1.000 dendritas -a través das cales reciben información doutras neuronas- e que o seu axón, a súa vez, posúe unhas 1.000 ramificacións. Isto, unido a unha enorme variedade de neurotransmisores e os seus receptores, de neuromoduladores, a unha complexísima xeometría dendrítica, a aínda descoñecida actividade das células gliais no procesado de información, etc., permítenos pensar, nun cálculo moi conservador, que o número de interaccións no cerebro que deberiamos simular para ter unha boa aproximación a súa “arquitectura” é dun cuarto de trillón. Se ademais non caemos no erro de pensar que cada unha desas interaccións é o equivalente á execución dunha operación elemental por parte dun computador, podémonos facer á idea de que nin o máis potente supercomputador actual sería capaz de simular o funcionamento real dun cerebro humano, aínda que soubésemos como elaborar o código para iso -Chris Chatham, “10 Important Differences Between Brains and Computers”. ScienceBlogs, March 27, 2007-.

(http://scienceblogs.com/developingintelligence/2007/03/27/why-the-brain-is-not-like-a-co/).

[16] O Tianhe-2, por exemplo, conta con 16.000 nodos, cada un con dous procesadores de 12 núcleos e tres de 57 núcleos, o que dá un total de máis de 3 millóns de núcleos de computación.

[17] A evolución no cerebro foi a través de procesos incrementais, crecendo de abaixo cara arriba. Facendo una analoxía cos computadores, é coma se os actuais supercomputadores conservasen boa parte da unidade de procesamento dalgún dos primeiros computadores, incorporando sobre ela novas estruturas e capacidades.

[18] Que o cerebro conte cun “corpo” dotado de sofisticados sensores e efectores confírelle unha maior capacidade de resolución de problemas -pode apoiarse no que percibe para tomar mellores decisións sobre como actuar e pode actuar para percibir mellor a contorna-.

[19] No século XVII Descartes propuxera a conversación como un medio seguro para distinguir máquinas e persoas. Segundo el, unha máquina nunca podería “producir diferentes ordenamentos de palabras para dar unha resposta significativa apropiada a calquera cousa que se diga na súa presenza, como fai o máis romo dos homes.” [“The Philosophical Writings of Descartes”, vol. 1, p. 140. Cambridge University Press, 1985; traducido ao inglés por J. Cottingham, R. Stoothoff y D. Murdoch.

[20] Ver a entrada “robótica” da Gran Enciclopedia Galega Silverio Cañada, elaborada por Senén Barro e Roberto Iglesias.

[21] E aínda máis que vaino a estar, a xulgar polos crecentes investimentos no ámbito da robótica e o cada vez maior número de empresas no sector. É máis, algunhas grandes corporacións están a mostrar un apetito feroz na adquisición destas empresas. É o caso de Google, que en 2013 fíxose con Boston Dynamics, empresa fundada en 1992 por Marc Raibert, exprofesor do MIT, e quizais a compañía máis importante do mundo en robótica avanzada.

[22] A incorporación da Kinect á Xbox 360 por parte de Microsoft supuxo un avance espectacular no sector do entretemento, ao permitir a interacción dos xogadores cos videoxogos a través de xestos e movementos. Pero realmente o seu impacto foi moito máis alá. Este dispositivo permite “ver” en tres dimensións a través dunha tecnoloxía de infravermellos, incriblemente barata e fácil de integrar noutros dispositivos. A Kinect é hoxe amplamente utilizada en robótica, no desenvolvemento de aplicacións que requiran a interacción cos usuarios, en laboratorios de investigación… Algo semellante ocorreu cando o primeiro iPhone incorporou un bo número de sensores ao que ata ese momento era pouco máis que un teléfono. Por outra banda, do mesmo xeito que o hardware barato e flexible, pensado inicialmente para outros usos, fixo avanzar dun modo importante o mundo da robótica, tamén están a ser de gran axuda os avances na estandarización do software para robots. É o caso da plataforma ROS -Robot Operating System-, basicamente un sistema operativo para robots en código aberto [Quigley e col., 2009]; (www.ros.org).

[23] Fundou xunto a George Devol a empresa Unimation en 1956. Esta empresa fabricou o primeiro robot industrial, o Unimate, que foi instalado nunha planta de General Motors en 1961.

[24] Non abordaremos aquí a construción da estratexia de control, pero os lectores interesados poden acudir ao traballo de Argall e col. [2009] para ver como pode facerse.

[25] Tal e como describen Breazeal e Scassellati [2002], dous investigadores do MIT: “por imitar non debemos entender o proceso en que un observador simplemente reproduza accións dun modelo senón que debe tentar alcanzar o mesmo obxectivo do modelo, pero mediante a execución de accións novas aínda que, obviamente, con certa similitude ás observadas”. Pensemos en que un robot humanoide non poderá moverse de forma idéntica a un ser humano, sinxelamente polo feito de que a súa morfoloxía e os seus graos de liberdade non son idénticos aos dunha persoa. Isto pasa mesmo entre nós, as persoas. Por exemplo, a nosa forma de camiñar é unha característica particular da persoa e está influenciada por variables como o peso, a distancia entre articulacións e moitas máis. Tal é así, que este feito está a utilizarse para a identificación de usuarios de móbiles, sen ir máis lonxe [Sung e col., 2014; Zhag e col.,, 2015].

[26] Senén Barro, “Jefe, ¡hay un robot en la oficina!”, La Voz de Galicia, 8 de febreiro de 2015.

[27] Estímase que por cada emprego que crea Amazon, a industria clásica coa que compite ten que desfacerse de cinco traballadores. Según Casey Research (http://www.caseyresearch.com/articles/amazon.com-creates-5000-jobs-destroys-25000-in-the-process), entre 2012 e 2013 Amazon conseguiu 2,5 veces os beneficios de TJX Companies –a súa competencia offline-, coa metade de traballadores.

[28] Evidentemente, excluíndo os períodos de recesión e as posteriores etapas de recuperación económica, nas que o emprego creado é peor que o perdido durante as crises -emprego de tempo parcial, menos cualificado e peor pago-. Isto sabémolo ben no noso país.

[29] WhatsApp, unha empresa de mensaxería instantánea que pronto chegará a superar os 1.000 millóns de usuarios, foi adquirida por Facebook a principios de 2014, cando contaba con 55 traballadores. Mark Zuckerberg anunciou entonces que a compraran por 19.000 millóns de dólares (https://es.wikipedia.org/wiki/WhatsApp).

[30]A axencia de noticias estadounidense Associated Press comezou a mediados de 2014 a elaborar automaticamente información de ámbito financeiro -notas de prensa sobre os resultados trimestrais das empresas-. Para iso utiliza a plataforma Wordsmith da empresa Automated Insights, que incorpora un sistema de xeración de linguaxe natural capaz de converter automaticamente datos financeiros en artigos de prensa. A utilización deste sistema permitiu a Associated Press producir máis de 3.000 artigos financeiros ao trimestre, dez veces máis do que os seus redactores e editores eran capaces de facer manualmente. Cando Associated Press anunciou a automatización deste servizo dixo que isto permitiría dar máis información e liberar de traballo aos xornalistas para que estes poidan dedicarse a outro tipo de tarefas, pero todos sabemos que antes ou despois suporá a redución de postos de traballo. Outro exemplo nesta liña é o da empresa Symantec Clearwell, capaz de tratar centos de miles de documentos útiles para a preparación de xuízos nun ou dous días, algo que normalmente require de multitude de avogados especializados, traballando semanas.

[31] O hotel Henn-Na de Nagasaki, Xapón, aberto en xullo de 2015, está atendido na actualidade por 80 robots e 10 humanos.

[32] Isto sempre foi así; lembremos a introdución dos códigos de barras nos produtos para proceder á súa identificación e cobro. No momento en que se fixo, optouse por non automatizar todo o proceso de cobro xa que resultaba extraordinariamente caro, mentres que incorporar á tarefa a un operador humano fíxoo máis rendible en conxunto.

[33] O Premio Nobel de economía de 2007, Eric Maskin, considera que aínda non sabemos ben que efecto está a ter no emprego o cambio inducido por Internet, o uso masivo de datos ou a robotización, pero si “que o cambio tecnolóxico fai máis valiosas que nunca ás persoas con coñecementos técnicos. Por iso é mesmo máis importante agora o investimento en educación”. El País, 22 de febreiro de 2015.

[34] Pensemos no recente caso de fraude cometida por Volkswagen ao instalar un software capaz de detectar o momento no que un coche era sometido a un control de emisións contaminantes, momento no que o rendemento do vehículo axustábase dentro dos límites oficiais que se impoñen ás emisións.

[35] Vicente Verdú afirmaba no seu artigo de alarmante título: “O automático mata” -El País, 2 de xaneiro de 2015-, que: “A automatización -no mellor dos supostos- libera a mente para outras tarefas importantes, pero tamén a adormenta para improvisar unha estrataxema audaz. Se o médico deixou ao carón o seu ollo clínico e pide numerosas probas, se o chofer descoida o itinerario e entrégase ao Tomtom, se o maquinista fíase máis do “enxeñado” que do seu enxeño, que facer?”. Sen dúbida esta é unha visión moi pesimista do que nos achega a automatización e en particular a súa contribución á nosa seguridade. Sen ir máis lonxe, o tren que ía camiño de Santiago de Compostela o 24 de xullo de 2013, e que descarrilou debido a un flagrante erro humano, teríase librado do accidente de dispoñer dun sistema de seguridade ERTMS, máis avanzado que o ASFA instalado entón. Dese modo evitaríamos 79 mortes, entre elas a do meu gran amigo Beotas. Normalmente o automático salva vidas.

[36] O profesor Zadeh desenvolveu en 1965 [Zadeh, 1965] un novo concepto, o de conxunto difuso ou borroso –“fuzzy set”-, como unha extensión do conxunto clásico. Os elementos dun universo de discurso pertencen ou non a un conxunto clásico definido nel. Non hai termos medios. Por exemplo, o conxunto dos españois que mide 180 cm ou máis. Pola contra, un elemento pode pertencer a un conxunto difuso nun continuo de valores entre a non pertenza e a pertenza plena. O conxunto dos españois altos podería ser un bo exemplo. En que grao é vostede alto ou alta?

Non son moitos os científicos que iniciaron novos campos do saber. Moi poucos os que ademais gozan en vida o éxito e o recoñecemento xeneralizado dos seus achados ou achegas. Lotfi Zadeh é un destes. El foi unha testemuña activa do enorme desenvolvemento da lóxica difusa e das súas aplicacións desde aquela publicación súa, fai xusto agora 50 anos, que por primeira vez utilizou a palabra fuzzy como o concepto central dun traballo científico. Un concepto que co tempo deu lugar a un inmenso campo teórico e aplicado, abrindo un novo mundo ao pensamento e á investigación e o desenvolvemento. En xeral adóitase denominar “fuzzy logic” -lóxica difusa ou borrosa- a todo un conxunto, xa moi variado, de estruturas conceptuais -formalizadas unhas e outras non-, desenvolvementos matemáticos, lóxicas e achegas prácticas nos máis diversos dominios, baseadas todas elas na noción de conxunto difuso. Utilizar para todo iso o nome de “fuzzy logic” é un “sinécdoque” de uso común, da que eu tamén me aproveitei.

Sabemos que a medida que un sistema é máis e máis complexo, máis difícil é precisar o seu comportamento, o que levou a Zadeh a enunciar o denominado principio de incompatibilidade, que pon de manifesto que a precisión e a relevancia do enunciado sobre un sistema son variables contrapostas. Esta situación non é a miúdo unha gran limitación para que as persoas nos desenvolvamos ben na vida ordinaria. En xeral non necesitamos unha gran precisión para resolver moitos problemas cotiáns. Pensemos por exemplo en conducir un coche e en como dariamos as instrucións para aparcalo ou para adiantar a outro automóbil. Manexamos conceptos como “preto” ou “lonxe” cando falamos de distancias e utilizamos o coñecemento e o razoamento ao redor deles dun modo semellante: se hai un obstáculo á fronte e está “preto” -ou o noso vehículo está a achegarse a el-, entón debemos reducir “bastante” a velocidade ou cambiar a dirección “suavemente”. As palabras entre comiñas son facilmente identificables con conxuntos difusos e a frase condicional “se… entón…”, é unha peza de coñecemento que as relaciona: unha regra básica da representación do coñecemento en moitos ámbitos da intelixencia artificial. Manexalos nun computador é relativamente fácil e esta é unha das formas nas que podemos trasladar ás máquinas mecanismos de razoamento relativamente frecuentes no comportamento das persoas e facer así tamén máis humanas ás máquinas.

[37] Un investigador francés, Cyril Labbé, detectou recentemente que 120 artigos publicados pola prestixiosa editorial alemá Springer e a asociación de enxeñería máis importante do mundo, o Institute of Electrical and Electronic Engineers (IEEE), foran xerados automaticamente e cun contido lingüisticamente correcto pero cientificamente absurdo. Os autores destes artigos, que en xeral trataban de poñer en evidencia a debilidades e ata as perversións de editoriais, congresos científicos, procesos de revisión por pares, etc., usaron para escribir estes traballos un software coñecido como SCIgen, desenvolvido hai unha década por un grupo de investigadores do MIT como un simple divertimento. Son moitos máis os falsos artigos que se aceptaron nos máis diversos foros científicos e tecnolóxicos. Se como puxo en evidencia Labbé, a permisividade do sistema é tanta que as fraudes disparatadas cóntanse por centenares, que non ocorrerá coas que se fan a conciencia.

[38] Recentemente publicamos unha exhaustiva análise de case douscentos clasificadores de moi diversos tipos: análise discriminante, árbores de decisión, bayesianos, redes neuronais, baseados en regras… e así ata 17 familias distintas [Fernández-Delgado e col., 2014]. Para comparar as súas prestacións utilizamos 121 conxuntos de test con datos reais. En moitos dos casos non houbo diferenzas estatisticamente significativas entre diversos grupos de clasificadores. Con todo, todos eles e múltiples variantes dos mesmos, foron publicados en multitude de revistas científicas e congresos do ámbito. Parece coma se o obxectivo fose: deseñar un microproblema, obter o mellor clasificador para el e publicalo. De feito, unha das conclusións que se derivan da nosa exhaustiva análise é que moitas veces o que se publica, aínda sendo cientificamente correcto, é pouco ou nada útil para o avance da ciencia e os seus potenciais usos.

 

Print Friendly, PDF & Email
Me gusta
Me gusta Me encanta Me divierte Me asombra Me entristece Me enfada