"El sector privado tiene la responsabilidad ética, moral y legal de garantizar la seguridad de sus productos", dijo Harris.
Por Canal26
Jueves 4 de Mayo de 2023 - 16:51
Open IA; Inteligencia artificial. Foto: Reuters.
La vicepresidenta de Estados Unidos, Kamala Harris, convocó este jueves a los líderes de las cuatro firmas estadounidenses al frente del desarrollo de la inteligencia artificial (IA) para recordarles su responsabilidad moral a la hora de asegurar la seguridad de los productos que usen esa tecnología.
"El sector privado tiene la responsabilidad ética, moral y legal de garantizar la seguridad de sus productos. Y cada empresa debe cumplir con las leyes existentes para proteger al pueblo estadounidense", dijo en un comunicado.
Harris se pronunció tras haber recibido en la Casa Blanca a los consejeros delegados de Microsoft, Satya Nadella; Alphabet y Google, Sundar Pichai; Anthropic, Dario Amodei, y OpenAI, Sam Altman.
Te puede interesar:
La inteligencia artificial pondrá en riesgo más del 20% del ingreso de autores musicales y audiovisuales para 2028
"Los avances en tecnología siempre han presentado oportunidades y riesgos, y la IA no es diferente. Es una de las tecnologías más poderosas de la actualidad, con el potencial de mejorar la vida de las personas y abordar algunos de los mayores desafíos de la sociedad", recalcó la vicepresidenta.
Al mismo tiempo, según destacó, esa tecnología "tiene el potencial de aumentar drásticamente las amenazas a la seguridad y la protección, infringir los derechos civiles y la privacidad, y erosionar la confianza pública y la fe en la democracia".
La portavoz de la Casa Blanca, Karine Jean-Pierre, añadió en una conferencia de prensa que la conversación con los cuatro directivos fue "franca y honesta", e incidió en que es necesario que las plataformas que desarrollan la IA sean "más transparentes" sobre sus sistemas tanto con los políticos como con el público.
Foto: Reuters.
Antes de la cita, la Administración de Joe Biden ya había adelantado que las grandes empresas de IA han aceptado someterse a una evaluación pública de sus sistemas durante el evento de "hackers" DEF CON 31, que se celebrará en Las Vegas a comienzos de agosto.
Miles de participantes analizarán en esa convención si estos sistemas están alineados con la Carta de Derechos de la IA que ha propuesto el Gobierno estadounidense y que incluye principios como la privacidad de los datos de los usuarios o la protección contra los algoritmos discriminatorios.
Te puede interesar:
La inteligencia artificial llegó a la iglesia: un "Jesús IA" respondió preguntas de fieles a través de una pantalla
La cita con los representantes de Microsoft, Anthropic, OpenAI y Google y Alphabet y el compromiso de las tecnológicas se enmarca en nuevos anuncios por parte del Ejecutivo estadounidense para mitigar los riesgos de esa tecnología.
En esa línea, Estados Unidos avanzó este jueves que invertirá 140 millones de dólares para establecer siete nuevos institutos de investigación en inteligencia artificial que impulsarán la innovación responsable y asegurarán que los avances sirven al bien común, lo que elevará a 25 la cifra total en el país de ese tipo de centros.
El Gobierno emitirá también nuevas directrices sobre el uso de la IA por parte de las agencias gubernamentales y federales, para asegurar que respetan los derechos y la seguridad de los ciudadanos estadounidenses.
1
Spotify Wrapped 2024: cómo acceder a lo más escuchado del año y qué hacer si todavía no aparece en la app
2
La inteligencia artificial pondrá en riesgo más del 20% del ingreso de autores musicales y audiovisuales para 2028
3
¡Atención usuarios de Apple!: uno por uno, todos los iPhone que se quedarán sin WhatsApp en 2025
4
Una empresa de micros de Argentina sumó una tecnología de Elon Musk para sus viajes
5
Adiós a la PlayStation 4: a partir de qué fecha Sony dejará de dar soporte a la consola