Inteligencia artificial, ética y sociedad: ¿hasta dónde debemos llegar?

0
76

Redacción/Infobaja

Ensenada.- Estamos en el umbral del cambio de empleabilidad más grande de la historia, con una galopante brecha de innovación y de desigualdad social, y en pleno debate de lo que significa ser humano. En ese contexto, la discusión sobre los impactos de la inteligencia artificial (IA) no deben centrarse en sus aspectos técnicos, sino incluir también los humanos y éticos para poder aprovechar en forma integral y efectiva sus beneficios en bienestar social y desarrollo sustentable.

Esto se destacó en la apertura del conversatorio “Inteligencia Artificial: ética y sociedad” que organizó hoy el CICESE, donde se discutieron las implicaciones de los recientes avances que vemos todos los días en este campo, al utilizar por ejemplo un teléfono inteligente para ir de un lugar a otro siguiendo indicaciones, lo cual es muy útil en la vida diaria “pero tienen implicaciones en aspectos como la privacidad, que es muy relevante para mantenernos seguros en internet o para tener confianza en que nuestros datos no van a ser utilizados para otros fines”, según comentó el doctor Edgar Chávez González, investigador de este centro y principal organizador del foro.

El conversatorio consistió en dos paneles de discusión, uno sobre aspectos de IA y ética, y el otro sobre IA y sociedad, donde participaron no solamente expertos en la parte de computación, sino filósofos, sociólogos y especialistas en educación. Se presentaron también dos charlas a cargo de los doctores Mariano Rivera y Anibal Monasterio.

La primera, “¿Sueñan los androides con ovejas eléctricas?”, sirvió para repasar qué cosas presentadas en esa novela se han cumplido, qué cosas no, qué cosas se van a cumplir y cuáles nunca se cumplirán, además de discutir mitos y realidades, así como aspectos tan interesantes como si los robots llegarán (o no) a tener conciencia. En la segunda, el doctor Monasterio, quien es filósofo y trabaja en la intersección de las ciencias cognitivas, biológicas y sociales, abordó cómo nuestros datos personales son muchas veces usados con fines espurios, cómo se erosiona nuestra privacidad y seguridad, y analizó las diversas implicaciones éticas, sociales y medioambientales de la automatización y digitalización de la vida.

Mariano Rivera consideró que uno de los retos de la IA es transferir habilidades humanas a las máquinas. Un avance en ese sentido es un robot llamado Sofía que fue desarrollado para sostener conversaciones basadas en aspectos emotivos. Es difícil verlo como algo personal, pero en Japón la gente se ha llegado a enamorar de la relación que logran establecer con esa entidad.

“La realidad es que estamos en una explosión de desarrollo tecnológico. Hay una parte de ciencia ficción pero también hay una realidad bien grande. Mucho de lo que estamos viendo en artículos científicos no vemos todavía su impacto en la vida diaria. Eso lo veremos en los próximos años, cuando veamos los coches autónomos, cuando el médico con una pequeña muestra de sangre o una imagen del iris llegue a un diagnóstico, o cuando vayamos a los bancos y nuestro asesor financiero sea un un software”.

Sobre aspectos éticos y sociales, indicó: “Yo soy científico y para mí un reto es desarrollar estas técnicas. Pero la pregunta es ¿debemos hacer todo lo que podemos hacer? No estoy seguro. El ejemplo es el desarrollo de la bomba atómica. Ellos (los Estados Unidos) tenían una justificación y la lanzaron. ¿Pero era necesario? Igual en la IA. Necesitamos que los sicólogos, los filósofos, hagan esta revisión y establezcan límites (…) La otra es: si tuviéramos la capacidad de desarrollar un nuevo ser, una nueva entidad, una nueva especie que sea mejor que nosotros, ¿debemos hacerlo? No estoy seguro si nosotros somos el mecanismo que la evolución usa para ir más rápido o debemos detener eso. Como científico pienso que son preguntas que debe resolver un filósofo”.

Otro aspecto sobre el mal uso de estas nuevas tecnologías lo abordó el doctor Edgar Chávez. Citó el caso de las pasadas elecciones presidenciales en Estados Unidos, donde se sospecha fuertemente que se vivió un proceso “cargado” y que se utilizaron técnicas de IA para mover a la opinión pública. No se trata propiamente de un fraude electoral, aclaró, sino de dirigir la percepción de las personas utilizando, por ejemplo, noticias falsas. “Y desde luego que es posible que esto ocurra en cualquier lugar del mundo”.

Mucho más conocido es el algoritmo utilizado en Facebook para, dependiendo de cómo y con quién interactúas, te muestra cosas que pudieran ser interesantes para ti. “Eso tiene otras implicaciones porque conocen tu vida personal, tus preferencias. Pueden saber si tienes alguna orientación sexual o si tienes alguna preferencia política en particular. Se hace con fines de mercadotecnia, pero pueden ser utilizados para otros propósitos”, advirtió.

Por ello, el doctor Arturo Serrano Santoyo, investigador de la Dirección de Impulso a la Innovación y el Desarrollo del CICESE, consideró que vivimos tiempos extraordinarios, pero también de gran riesgo. “Una preocupación de individuos, comunidades e instituciones sobre aspectos éticos de la IA es que si bien existen mucha documentación sobre el tema, proviene de individuos, empresas y agencias de países que dominan el entorno de la IA, pero no de economías emergentes.

“Ante el carácter seductor y glamoroso de los dispositivos, sistemas y aplicaciones digitales, que han capturado la atención de los usuarios y los han vuelto dependientes, es imprescindible entender, estudiar, reflexionar y actuar sobre las implicaciones éticas de la IA para poder aprovechar en forma integral y efectiva sus beneficios potenciales para el bienestar social y desarrollo sustentable de nuestro contexto”.

Y citó a un empresario (Klaus Schwab) y a un músico innovador (Will. i.am.) a manera de conclusión. Para el primero, “la disrupción tecnológica amenaza con crear una brecha entre las prioridades de las empresas y las de la sociedad. Así es como los líderes empresariales pueden aprovechar la ‘Cuarta revolución industrial’”. El segundo, no por coloquial resulta menos realista: “Los monarcas de los datos saben más sobre mí, que mi madre, mi gobierno o mi médico…”