Noticias

No los une el amor, sino el temor por la inteligencia artificial

Desde hace años las películas de ciencia ficción nos han hecho temer las cosas que las máquinas con inteligencia artificial podrían hacerle a sus creadores. Pero en las próximas décadas nuestra mayor preocupación con más probabilidad será que los robots nos quiten el trabajo o nos choquen en la carretera.

Ahora cinco de las mayores compañías tecnológicas están tratando de crear un estándar de ética en torno de la creación de inteligencia artificial. Mientras la ciencia ficción se ha concentrado en la amenaza existencial de la IA para los humanos, los investigadores de la compañía madre de Google, Alphabet, y los de Amazon, Facebook, IBM y Microsoft se han estado reuniendo para debatir cuestiones más tangibles, tales como el impacto de la IA en el empleo, el transporte e incluso la guerra.

Las compañías tecnológicas se han excedido por mucho tiempo en las promesas de lo que las máquinas con la nueva tecnología podrían hacer. Pero en los últimos años la IA ha hecho rápidos avances en una variedad de áreas, desde autos sin chófer y máquinas que entienden el habla, como el dispositivo Echo de Amazon, hasta una nueva generación de sistemas de armas que amenazan con automatizar el combate.

Aún están por definirse las cuestiones específicas de lo que hará o dirá el grupo, incluso su nombre está en veremos. Pero la intención básica es clara: asegurar que la investigación en IA se concentre en beneficiar a la gente, no causarle daño.

Un informe difundido hace unas semanas por un grupo de la Universidad de Stanford financiado por Eric Horvitz, investigador de Microsoft que es uno de los ejecutivos participantes en el debate de la industria, destaca la importancia del esfuerzo del sector. El proyecto de Stanford estableció un plan para producir un informe detallado del impacto de la IA en la sociedad cada cinco años durante el próximo siglo.

Regulación y gasto

Una preocupación importante para la gente de la industria tecnológica aparecería si los entes reguladores intervienen para crear normas en torno de su trabajo sobre IA. Por lo que están tratando de crear un marco para una organización auto-controlada, aunque aún no está claro cómo funcionaría eso.

“No decimos que no deba haber regulación alguna”, dijo Peter Stone, un científico computacional de la Universidad de Texas en Austin, y uno de los autores del informe de Stanford. “Lo que decimos es que hay una manera correcta y una manera equivocada de hacerlo”.

Si bien la industria tecnológica se conoce como competitiva, ha habido instancias en las que las compañías trabajaron juntas cuando servía a sus intereses. En los 90, por ejemplo, las compañías tecnológicas acordaron un método estándar para encriptar transacciones de comercio electrónico, sentando las bases para dos décadas de crecimiento de los negocios en Internet.

Los autores del informe de Stanford llamado La Inteligencia Artificial y la Vida en 2030 sostienen que será imposible regular la IA. “El consenso del panel de investigación es que los intentos por regular la IA, en general estarían mal orientados, dado que no hay una definición clara de la IA (no es una sola cosa) y los riesgos y consideraciones son muy distintos en distintos dominios” dice el informe.

Una recomendación del informe es elevar la conciencia y el conocimiento experto de la IA en todos los niveles gubernamentales, dijo Stone. El especialista también reclama un incremento del gasto, tanto público como privado, para apoyar el desarrollo de la nueva tecnología.

“El gobierno tiene su rol y respetamos eso”, sostuvo David Kenny, gerente general de la división Watson de inteligencia artificial de IBM. El desafío, agregó, es que “muchas veces las políticas van a la zaga de las tecnologías”. ß

LA NACION Economía Tecnología

Completa el formulario y recibe nuestra asesoría

  • Este campo es un campo de validación y debe quedar sin cambios.