Biden anuncia acuerdos sobre inteligencia artificial con compañías tecnológicas

Joe Biden. Crédito: AP

Joe Biden. Crédito: AP

El presidente de Estados UnidosJoe Biden, anunció un importante acuerdo con empresas líderes en el desarrollo de inteligencia artificial, como Amazon, Google, Meta (anteriormente conocida como Facebook), Microsoft y otras compañías. Este compromiso tiene como objetivo abordar los desafíos y riesgos que presenta la tecnología de IA, considerada de gran potencial y alcance.

El gobierno de Biden ha obtenido el compromiso voluntario de siete empresas estadounidenses para asegurar la seguridad de sus productos de inteligencia artificial antes de su lanzamiento. Algunos de estos compromisos incluyen la supervisión por parte de terceros del funcionamiento de los sistemas comerciales de IA, aunque no se especifica quiénes serán los responsables de auditar la tecnología ni de hacer cumplir las medidas.

Biden enfatizó la importancia de ser conscientes de las amenazas que pueden surgir con las tecnologías emergentes y destacó que las empresas tienen una “obligación fundamental” de garantizar la seguridad de sus productos.

Inteligencia artificial IA

El crecimiento de la inversión en herramientas de IA generativa capaces de crear textos y medios similares a los generados por humanos ha generado tanto fascinación como preocupación. Existe inquietud acerca de su capacidad para engañar a las personas y propagar desinformación, entre otros riesgos.

En ese sentido, las cuatro grandes compañías tecnológicas, junto con OpenAI, el fabricante de ChatGPT, y otras nuevas empresas como Anthropic e Inflection, se han comprometido a realizar pruebas de seguridad, algunas de las cuales serán realizadas por expertos independientes.

Estas pruebas estarán enfocadas en protegerse contra riesgos importantes, como la bioseguridad y la ciberseguridad, así como los posibles daños sociales, como prejuicios y discriminación, y los riesgos teóricos de sistemas avanzados de IA que puedan tomar control de sistemas físicos o autorreplicarse.

Adicionalmente, las empresas se han comprometido a reportar públicamente cualquier vulnerabilidad en sus sistemas y a utilizar marcas de agua digitales para distinguir entre imágenes reales y deepfakes, que son imágenes manipuladas digitalmente creadas por la inteligencia artificial.

Estos compromisos voluntarios buscan abordar los riesgos de manera inmediata, mientras se impulsa a largo plazo la aprobación de leyes que regulen la tecnología de IA por parte del Congreso estadounidense. Para ello, los ejecutivos de estas empresas planean reunirse con el presidente Biden en la Casa Blanca el viernes, con el fin de comprometerse a cumplir con estas normas.

Algunos defensores de la regulación de la IA consideran que esta medida es un comienzo, pero consideran que se requiere hacer más para responsabilizar a las empresas y sus productos. Amba Kak, directora ejecutiva del AI Now Institute, señaló que se necesita una deliberación pública más amplia, ya que la colaboración a puerta cerrada con las empresas para acordar salvaguardias voluntarias podría tener resultados que no aborden de manera suficiente los problemas que surgen con la IA.

El líder de la mayoría en el Senado, Chuck Schumer, ha anunciado que presentará una propuesta de ley para regular la IA y colaborará con el gobierno de Biden y otros colegas bipartidistas para desarrollar las promesas realizadas en este acuerdo.

Si bien varios ejecutivos de empresas tecnológicas han pedido regulación, hay preocupación entre algunos expertos y competidores emergentes de que la regulación propuesta podría favorecer a los pioneros con recursos financieros, como OpenAI, Google y Microsoft, y perjudicar a las empresas más pequeñas que no puedan asumir los costos asociados con el cumplimiento de las restricciones regulatorias para sus sistemas de IA conocidos como modelos de lenguaje.

Exit mobile version