OpenAI apoya la Ley de seguridad infantil en línea


OpenAI, que actualmente enfrenta una serie de demandas por supuestas violaciones de seguridad en ChatGPT, ha apoyado la Ley de Seguridad Infantil en Línea (KOSA). La compañía dijo que su apoyo era parte de un compromiso más amplio para crear «reglas específicas de IA» para la seguridad de los niños.

El apoyo de OpenAI se produce cuando KOSA, que fue aprobada por el Senado en 2024, parece estar ganando impulso. KOSA, introducida por primera vez en 2022, es una de varias leyes de seguridad en línea que exigen que las empresas de redes sociales y otras plataformas en línea implementen protecciones más estrictas para los niños. El proyecto de ley ha sido revisado varias veces, pero la versión actual incluye requisitos para que las aplicaciones de redes sociales permitan a los menores optar por no utilizar funciones «adictivas» y recomendaciones algorítmicas. Las plataformas en línea también tienen el “deber de diligencia” de mitigar el contenido dañino que fomenta los trastornos alimentarios, el suicidio y la explotación sexual.

Apple, Microsoft, Snap y X también apoyan el proyecto de ley. NetChoice, un grupo comercial cuyos miembros incluyen Meta y otras plataformas, dijo que la medida permitiría la censura sin hacer que los niños estén más seguros en línea. Los grupos de privacidad y derechos digitales, como la Electronic Frontier Foundation, también se oponen al proyecto de ley.

Aunque KOSA se discutió en gran medida en el contexto de las plataformas de redes sociales, OpenAI dijo que el proyecto de ley «complementa» el trabajo de seguridad que ya se está realizando. «No podemos darnos el lujo de repetir los errores cometidos durante el auge de las redes sociales, cuando no se implementaron protecciones más fuertes para los adolescentes hasta que las plataformas ya estaban profundamente arraigadas en las vidas de los jóvenes», dijo Chris Lehane, director de Asuntos Globales de OpenAI, en un comunicado.

OpenAI se enfrenta actualmente a una serie de demandas relacionadas con su historial en términos de seguridad. La compañía ha sido demandada por muerte por negligencia por parte de la familia de un adolescente que se suicidó después de supuestamente discutir sus planes con un chatbot. Otra familia presentó recientemente una demanda similar alegando que su adolescente sufrió accidentalmente una sobredosis de drogas tras un mal consejo médico de ChatGPT.



Fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here