Los sistemas de aprendizaje de IA con modelos lingüísticos siguen avanzando y multiplicándose con rapidez. El gobierno de EE.UU. ha querido tomar medidas para garantizar que la IA generativa cumpla con las leyes de protección de la privacidad de los consumidores.
La Comisión Federal de Comercio (FTC) ha iniciado una investigación a OpenAI, la empresa matriz y creadora de ChatGPT y DALL-E, debido a preocupaciones de que OpenAI pueda estar comprometiendo los datos personales y la reputación de las personas incumpliendo las leyes de protección de la privacidad. Se trata del primer desafío legislativo significativo en relación con la aplicación futura de la IA, y llega en un momento en que OpenAI y otras empresas están buscando activamente el favor de los reguladores y el gobierno.
La investigación fue publicada por The Washington Post, que reveló que la agencia envió a OpenAI un documento de 20 páginas solicitando registros sobre cómo la empresa ha abordado los riesgos asociados con sus modelos de IA, como un reciente incidente de filtración de historiales de pagos y chats de usuarios de ChatGPT. La FTC también está solicitando información sobre quejas relacionadas con declaraciones falsas o maliciosas hechas por la IA de OpenAI sobre individuos, así como datos que demuestren la comprensión de los usuarios sobre el producto que están utilizando y su potencial para generar información falsa o engañosa.
El CEO de OpenAI, Sam Altman, testificó voluntariamente ante el Congreso de EE.UU. en mayo sobre la aplicación de la IA, y también se reunió con el presidente Joe Biden y la vicepresidenta Kamala Harris.
Sigue toda la información de HIGHXTAR desde Facebook, Twitter o Instagram