La Orden Ejecutiva de Inteligencia Artificial de Biden Cubre Amplias Preocupaciones


El presidente Joe Biden ha emitido una orden ejecutiva (EO) que establece nuevos estándares para la seguridad y la privacidad de la inteligencia artificial (IA), con el objetivo de asegurar también la privacidad de los ciudadanos estadounidenses.

Para reforzar los estándares de seguridad de la IA, la EO requerirá que los desarrolladores de IA avanzada y modelos de lenguaje grandes (LLMs) como ChatGPT compartan información crítica, incluidos los resultados de pruebas de seguridad, con el gobierno de EE. UU.; desarrollen estándares y herramientas para garantizar la seguridad de estos sistemas de IA; eviten materiales biológicos peligrosos generados por la IA; impidan el fraude y el engaño habilitados por la IA; creen un programa de ciberseguridad para desarrollar herramientas de IA y abordar vulnerabilidades; y requieran que se redacte un memorando de seguridad nacional por parte del Consejo de Seguridad Nacional y el jefe de gabinete de la Casa Blanca.

Aunque es una agenda ambiciosa, Jake Williams, ex hacker de la Agencia de Seguridad Nacional (NSA) de EE. UU. y miembro del cuerpo docente de IANS Research, comentó que estas órdenes están destinadas en gran medida a proteger a la sociedad en su conjunto y tendrán poco impacto en las organizaciones.

"La EO hace hincapié en la detección de contenido generado por IA y en la creación de medidas para garantizar la autenticidad del contenido", señaló Williams en una declaración por correo electrónico. "Si bien esto probablemente complacerá a muchos en el gobierno que están profundamente preocupados por el contenido deepfake, en términos prácticos, las tecnologías de generación superarán siempre a las utilizadas para la detección. Además, muchos sistemas de detección de IA requerirían niveles de intrusión en la privacidad que la mayoría consideraría inaceptables".

El presidente Biden también ha solicitado al Congreso que apruebe una legislación de datos bipartidista destinada a validar procesos de recolección de datos; fortalecer la investigación y la tecnología que protegen la privacidad del usuario; priorizar "técnicas preservadoras de la privacidad" y desarrollar pautas para que las agencias federales las cumplan y evalúen su efectividad.

En referencia al problema del sesgo de la IA, la EO también busca avanzar en la equidad y los derechos civiles, ya que "los usos irresponsables de la IA pueden llevar a profundizar la discriminación, el sesgo y otros abusos en la justicia, la salud y la vivienda", así como proteger a los consumidores, pacientes, estudiantes y trabajadores cuyos empleos podrían estar en peligro con los cambios que la IA podría traer al entorno laboral.

"Quizás la contribución más significativa de la EO sea la dedicación de fondos para la investigación en tecnologías de preservación de la privacidad con la IA", dijo Williams. "El énfasis en la privacidad y los derechos civiles en el uso de la IA impregna la EO. A nivel social, el mayor riesgo a corto plazo de las tecnologías de IA es cómo se usan y qué tareas se les confían".

Por último, la administración Biden ha afirmado que busca promover la innovación y la competencia, trabajar con otros países para promover el uso seguro y seguro de la IA a escala global, y garantizar el uso responsable de la IA por parte del gobierno.

Un comunicado de la Casa Blanca afirmó que la administración Biden ha consultado con otros países para desarrollar marcos de gobernanza de la IA y que continuará trabajando con el Congreso para crear legislación bipartidista, ya que se requerirá más acción en el futuro.

Esta orden ejecutiva se produce después de una reunión en la Casa Blanca en julio junto con siete principales empresas tecnológicas para anunciar el compromiso colectivo de desarrollar tecnología de IA segura y protegida.


Contenido traducido al español con fines informativos, cualquier cambio en la publicación original no será reflejada en esta entrada, favor referirse a la fuente para obtener el acceso a cualquier actualización del contenido. Para la traducción se utilizó un LLM, al ser una traducción automática puede contener errores gramaticales o de otro tipo, me pueden enviar un mensaje.

Comentarios

Entradas más populares de este blog

DeepSeek: Ciberataque expone vulnerabilidades críticas en su modelo de IA R1 y reaviva debates sobre seguridad global

Resumen de los Principales Acontecimientos en Ciberseguridad de 2024

Microsoft Reemplaza Aplicación de Escritorio Remoto por Windows App: Implicaciones en Ciberseguridad