[ad_1]

Expertos y ejecutivos de empresas de tecnología llegaron el martes hasta el Congreso de EEUU para testificar sobre las posibles regulaciones a las que debería estar sometida la inteligencia artificial ante los riesgos y beneficios que presenta para la humanidad.

Pérdida de trabajos, invasión a la privacidad, manipulación del comportamiento humano y las opiniones, así como la posible injerencia electoral, fueron los asuntos en el centro de los cuestionamientos de senadores estadounidenses en una audiencia en la que participó Sam Altman, director ejecutivo de OpenAI, la compañía detrás del modelo lenguaje conocido como ChatGPT.

“Mis peores temores son que nosotros -el sector, la tecnología, la industria- casemos un daño significativo al mundo… creo que si esta tecnología sale mal, puede ser muy negativo”, dijo Altman a los senadores.

Altman reconoció creer que “la intervención regulatoria de los gobiernos será fundamental para mitigar los riesgos de modelos cada vez más potentes”.

Entre sus sugerencias a los congresistas citó el formar una nueva agencia regulatoria que autorice -a través de licencias- el desarrollo y lanzamiento de modelos de inteligencia artificial si superan un umbral de capacidades. Segundo, crear un conjunto de estándares de seguridad, y tercero, requerir auditorías independientes para que expertos determinen si los modelos cumplen con los estándares de seguridad.

Christina Montgomery, directora de privacidad de IBM, la empresa tecnológica multinacional, aseguró que este periodo de “atención pública” a la inteligencia artificial es la ventana necesaria para que el gobierno tome acción con regulaciones.

“La IA es solo una herramienta y las herramientas pueden tener diferentes propósitos. Con ese fin, IBM insta al Congreso a adoptar un enfoque de regulación de precisión para la IA. Esto significa establecer reglas para regir el despliegue de IA y casos de uso específicos, sin regular la tecnología en sí”, dijo Montgomery.

La propuesta de la experta en ética tecnológica, a diferencia de Altman, implica que se apliquen regulaciones más estrictas en casos de mayor riesgo para las personas y la sociedad, no en el uso generalizado. Además, invitó a definir “claramente” los riesgos en su uso y revelar a los usuarios cuando estén interactuando con inteligencia artificial.´

“El Congreso puede mitigar los riesgos potenciales de la IA sin obstaculizar la innovación”, agregó Montgomery.

Pese a la defensa de Altman a las “evaluaciones exhaustivas” que aseguró realiza OpenAI previo al lanzamiento de productos como ChatGPT4, Gary Marcus, profesor emérito de psicología y neurociencia en la Universidad de Nueva York, aseguró que “los sistemas actuales no son transparentes”.

“No protegen adecuadamente nuestra privacidad y continúan perpetuando el sesgo e incluso sus creadores no entienden completamente cómo funcionan (…) El plan preferido de las grandes empresas de tecnología se reduce a ‘confía en nosotros’, pero ¿por qué deberíamos hacerlo? Las sumas de dinero en juego son alucinantes”, sentenció Marcus.

El profesor, sin embargo, acordó en que es necesario que el gobierno se involucre en las regulaciones, mientras se integra el insumo de científicos independientes para “evaluar soluciones”.

Marcus agregó entre sus sugerencias la financiación orientada a la investigación de seguridad de la inteligencia artificial como un recurso “ético y honesto” de transparencia.

Sobre las elecciones, el director ejecutivo de OpenAI admitió estar “bastante preocupado” por el impacto que los modelos de lenguaje pueden tener en los procesos democráticos, como la generación de información falsa, para lo que abundó es necesario el trabajo conjunto entre la industria y el gobierno.

Los expertos y ejecutivos acordaron que además de acción por parte del Congreso de EEUU, se necesita “acción global” para atender los desarrollos de inteligencia artificial de manera unitaria.

“Esto vuelve al tema de la confianza y la confianza en la tecnología, la confianza es nuestra licencia para operar, como mencioné en mis comentarios, por lo que creemos firmemente en que hemos estado pidiendo una regulación precisa de la inteligencia artificial desde hace años”, agregó Montgomery.

Futuro de los trabajos humanos

El senador Richard Blumenthal, del Comité de lo Jurídico que condujo la audiencia, aseguró que su “mayor pesadilla” es la pérdida de trabajos humanos a cuenta de la inteligencia artificial.

A su inquietud, Altman aceptó que ChatGPT tendrá un “impacto significativo” en los puestos de trabajo que será “difícil de predecir”. Sin embargo, defendió que se tratará de una “mejora” a los empleos actuales a través de la automatización de tareas.

La ejecutiva de IBM, por su parte, reiteró que la inteligencia artificial “cambiará todos los trabajos”, causando que algunos desaparezcan, por lo que planteó como de “mayor importancia” el “preparar a la fuerza laboral de hoy y la fuerza laboral del mañana para asociarse con tecnologías de IA y usarlas”.

¡Conéctate con la Voz de América! Suscríbete a nuestro canal de YouTube y activa las notificaciones, o bien, síguenos en las redes sociales: Facebook, Twitter e Instagram.



[ad_2]
Source link