El Futuro de la IA Puede ser de Código Abierto o Cerrado
El Futuro de la IA Puede ser de Código Abierto o Cerrado. Los Gigantes Tecnológicos están Divididos mientras Hacen Lobby ante los Reguladores
Meta, la empresa matriz de Facebook, y IBM lanzaron un nuevo grupo llamado la AI Alliance que aboga por un enfoque de "ciencia abierta" para el desarrollo de la IA.
Los líderes tecnológicos han sido defensores vocales de la necesidad de regular la inteligencia artificial, pero también están haciendo lobby con fuerza para asegurarse de que las nuevas reglas funcionen a su favor.
Esto no significa que todos quieran lo mismo.
Meta, la empresa matriz de Facebook, e IBM lanzaron el martes un nuevo grupo llamado la AI Alliance que aboga por un enfoque de "ciencia abierta" para el desarrollo de la IA, lo que los coloca en desacuerdo con los rivales Google, Microsoft y OpenAI, el creador de ChatGPT.
Estos dos campos divergentes, el abierto y el cerrado, no están de acuerdo sobre si construir la IA de una manera que haga que la tecnología subyacente sea ampliamente accesible. La seguridad está en el centro del debate, pero también quién se beneficia de los avances de la IA.
Los defensores del enfoque abierto prefieren un enfoque que no sea "propio y cerrado", dijo Darío Gil, vicepresidente senior de IBM que dirige su división de investigación. "No es como una cosa que está cerrada en un barril y nadie sabe qué es".
¿Qué es la IA de Código Abierto?
El término "código abierto" proviene de una práctica de hace décadas en la que se construye software cuyo código es gratuito o ampliamente accesible para que cualquiera lo examine, modifique y desarrolle.
La IA de código abierto implica más que solo código y los científicos de la computación difieren en cómo definirla según qué componentes de la tecnología están disponibles públicamente y si existen restricciones que limiten su uso. Algunos usan "ciencia abierta" para describir la filosofía más amplia.
La Alianza de IA, liderada por IBM y Meta e incluyendo a Dell, Sony, los fabricantes de chips AMD e Intel y varias universidades y startups de IA, "se está uniendo para articular, simplemente dicho, que el futuro de la IA se construirá fundamentalmente sobre el intercambio científico abierto de ideas y sobre la innovación abierta, incluyendo código abierto y tecnologías abiertas", dijo Gil en una entrevista con The Associated Press antes de su presentación.
Parte de la confusión en torno a la IA de código abierto es que, a pesar de su nombre, OpenAI, la empresa detrás de ChatGPT y el generador de imágenes DALL-E, construye sistemas de IA decididamente cerrados.
"Para decir lo obvio, hay incentivos a corto plazo y comerciales en contra del código abierto", dijo Ilya Sutskever, científico jefe y cofundador de OpenAI, en una entrevista en video organizada por la Universidad de Stanford en abril. Pero también hay una preocupación a más largo plazo que involucra el potencial de un sistema de IA con capacidades "asombrosamente poderosas" que sería demasiado peligroso para hacerlo accesible públicamente, dijo.
Para respaldar su argumento sobre los peligros del código abierto, Sutskever planteó un sistema de IA que había aprendido a iniciar su propio laboratorio biológico.
¿Es Peligroso?
Incluso los modelos actuales de IA plantean riesgos y podrían usarse, por ejemplo, para intensificar campañas de desinformación y perturbar elecciones democráticas, dijo David Evan Harris, académico de la Universidad de California, Berkeley.
"El código abierto es realmente genial en muchas dimensiones de la tecnología", pero la IA es diferente, dijo Harris.
"Cualquiera que haya visto la película 'Oppenheimer' sabe esto, que cuando se están haciendo grandes descubrimientos científicos, hay muchas razones para pensarlo dos veces sobre cuán ampliamente compartir los detalles de toda esa información de maneras que podrían llegar a manos equivocadas", dijo.
El Centro para la Tecnología Humana, crítico de las prácticas de redes sociales de Meta desde hace tiempo, es uno de los grupos que llama la atención sobre los riesgos de los modelos de IA de código abierto o filtrados.
"Mientras no haya barreras en su lugar en este momento, es completamente irresponsable desplegar estos modelos al público", dijo Camille Carlton, del grupo.
¿Es Alarmista?
Ha surgido un debate cada vez más público sobre los beneficios o peligros de adoptar un enfoque de código abierto para el desarrollo de la IA.
Yann LeCun, científico jefe de Meta, este otoño arremetió en las redes sociales contra OpenAI, Google y la startup Anthropic por lo que describió como un "masivo lobby corporativo" para redactar las reglas de una manera que beneficie a sus modelos de IA de alto rendimiento y podría concentrar su poder sobre el desarrollo de la tecnología. Las tres empresas, junto con el socio clave de OpenAI, Microsoft, han formado su propio grupo industrial llamado Frontier Model Forum.
LeCun dijo en X, anteriormente Twitter, que le preocupaba que los científicos colegas estuvieran dando argumentos a aquellos que quieren prohibir la investigación y el desarrollo de código abierto.
"En un futuro en el que los sistemas de IA estén destinados a constituir el repositorio de todo el conocimiento y la cultura humanos, necesitamos que las plataformas sean de código abierto y estén disponibles de forma gratuita para que todos puedan contribuir a ellas", escribió LeCun. "La apertura es la única forma de hacer que las plataformas de IA reflejen la totalidad del conocimiento y la cultura humanos".
Para IBM, un temprano partidario del sistema operativo de código abierto Linux en la década de 1990, la disputa se inscribe en una competencia mucho más larga que precede al auge de la IA.
"Es una especie de enfoque clásico de captura regulatoria al tratar de generar temores sobre la innovación de código abierto", dijo Chris Padilla, quien lidera el equipo global de asuntos gubernamentales de IBM. "Quiero decir, este ha sido el modelo de Microsoft durante décadas, ¿verdad? Siempre se opusieron a programas de código abierto que pudieran competir con Windows u Office. Están tomando un enfoque similar aquí".
¿Qué Están Haciendo los Gobiernos?
Fue fácil pasar por alto el debate sobre "código abierto" en la discusión en torno a la amplia orden ejecutiva del presidente de EE.UU., Joe Biden, sobre la IA.
Eso se debe a que la orden de Biden describía los modelos abiertos con el nombre técnico de "modelos de fundación de uso dual con pesos ampliamente disponibles" y dijo que necesitaban un estudio adicional. Los pesos son parámetros numéricos que influyen en el rendimiento de un modelo de IA.
"Cuando los pesos de un modelo de fundación de uso dual estén ampliamente disponibles, como cuando se publican públicamente en Internet, puede haber beneficios sustanciales para la innovación, pero también riesgos sustanciales de seguridad, como la eliminación de salvaguardias dentro del modelo", dijo la orden de Biden. Dio al secretario de Comercio de EE.UU., Gina Raimondo, hasta julio para hablar con expertos y volver con recomendaciones sobre cómo manejar los posibles beneficios y riesgos.
La Unión Europea tiene menos tiempo para resolverlo. En las negociaciones que llegan a su fin el miércoles, los funcionarios que trabajan para finalizar la aprobación de la regulación de IA líder en el mundo todavía están debatiendo varias disposiciones, incluida una que podría eximir ciertos "componentes de IA de código abierto y gratuitos" de las reglas que afectan a los modelos comerciales.
Contenido traducido al español con fines informativos, cualquier cambio en la publicación original no será reflejada en esta entrada, favor referirse a la fuente para obtener el acceso a cualquier actualización del contenido. Para la traducción se utilizó un LLM, al ser una traducción automática puede contener errores gramaticales o de otro tipo, me pueden enviar un mensaje.
Comentarios
Publicar un comentario