Dos ex investigadores de OpenAI que renunciaron este año por preocupaciones de seguridad dicen que están decepcionados pero no sorprendidos por la decisión de OpenAI de oponerse al proyecto de ley de California para prevenir desastres de IA, SB 1047. Daniel Kokotajlo y William Saunders advirtieron previamente que OpenAI se encuentra en una Carrera “imprudente” por el dominio.
“Sam Altman, nuestro exjefe, ha pedido repetidamente la regulación de la IA”, escriben en un carta que fue compartido con Politico y que insta al gobernador de California, Gavin Newsom, a firmar el proyecto de ley. “Ahora, cuando la regulación real está sobre la mesa, se opone a ella”. Los dos agregan que, “Con la regulación adecuada, esperamos que OpenAI pueda cumplir con su declaración de misión de construir una IAG de manera segura”.
En respuesta a los ex empleados, un portavoz de OpenAI dijo que la startup “está en total desacuerdo con la caracterización errónea de nuestra posición sobre la SB 1047”, en una declaración a TechCrunch. El portavoz señaló los proyectos de ley de IA en el Congreso que OpenAI ha respaldado, y señaló que “las regulaciones de seguridad de la IA de vanguardia deberían implementarse a nivel federal debido a sus implicaciones para la seguridad nacional y la competitividad”.
Anthropic, rival de OpenAI, ha expresado su apoyo al proyecto de ley, al tiempo que ha presentado preocupaciones específicas y solicitado enmiendas. Desde entonces, se han incorporado varias de ellas y el jueves, el director ejecutivo Dario Amodei le escribió a Newsom para decirle que el proyecto de ley actual «Los beneficios probablemente superan sus costos,” aunque no respalda plenamente el proyecto de ley.








