A principios del año pasado, un hacker accedió a los sistemas de mensajería internos de OpenAI, la empresa detrás de ChatGPT, y obtuvo información sobre el diseño de la tecnología de inteligencia artificial de la empresa.
Según fuentes cercanas al incidente, el hacker robó detalles de las discusiones en un foro en línea donde los empleados de OpenAI discutían sobre las últimas tecnologías. Sin embargo, no es posible acceder a los sistemas donde reside y se desarrolla la inteligencia artificial de la empresa.
Los ejecutivos de OpenAI informaron a los empleados sobre el incidente durante una reunión en abril de 2023 en San Francisco, donde se discutió información confidencial bajo condición de anonimato. Aunque no se robó información de clientes ni miembros, los ejecutivos optaron por no hacer pública la noticia. No consideraron que el hacker fuera una amenaza para la seguridad nacional, ya que parecía ser un particular sin contacto con ningún gobierno extranjero. La empresa no notificó a las autoridades policiales.
El incidente generó preocupación entre algunos empleados de OpenAI, que temían que adversarios extranjeros, como China, pudieran destruir la tecnología de IA, lo que en última instancia podría amenazar la seguridad nacional de Estados Unidos. También han surgido preguntas sobre el enfoque de OpenAI en la seguridad y se han revelado divisiones dentro de la empresa sobre los riesgos de la IA.
Después del hack, Leopold Aschenbrenner, director del programa técnico de OpenAI encargado de garantizar que las futuras tecnologías de IA no causen daños graves, envió un memorando a la junta directiva de la empresa. En el memorando, argumentó que OpenAI no está haciendo lo suficiente para evitar que el gobierno chino y otros actores extranjeros roben sus secretos.
Aschenbrenner, a quien se le pidió que divulgue información fuera de la empresa, mencionó el incidente de seguridad en un podcast reciente y reiteró sus preocupaciones. Sin embargo, OpenAI negó que su rechazo estuviera relacionado con la piratería y no respetó las declaraciones de Aschenbrenner sobre su trabajo.
Existen temores legítimos de que un ciberataque a una empresa tecnológica estadounidense pueda tener vínculos con China. Más tarde se descubrió que los piratas informáticos chinos utilizaban sistemas de Microsoft para atacar las redes del gobierno federal. Sin embargo, las leyes actuales no permiten que OpenAI excluya a personas en función de su nacionalidad, y los expertos en políticas han indicado que restringir el talento extranjero podría obstaculizar el progreso de la IA en los Estados Unidos.
Aunque las tecnologías de inteligencia artificial actuales pueden difundir información errónea en línea y están comenzando a reemplazar a los empleados, hay poca evidencia de que esto represente un riesgo significativo para la seguridad nacional. Empresas como OpenAI están incorporando medidas de seguridad a sus aplicaciones de IA para evitar abusos y problemas.
Algunas empresas, como Meta, propietaria de Facebook e Instagram, comparten abiertamente sus proyectos de IA como software de código abierto, argumentando que esto permite a la industria identificar y resolver problemas. Sin embargo, investigadores y ejecutivos de tecnología han expresado preocupación por posibles riesgos futuros, como el uso de inteligencia artificial en armas biológicas o la penetración de sistemas informáticos gubernamentales.
OpenAI ha establecido un comité de seguridad para abordar los riesgos de las tecnologías futuras y ha nombrado expertos en seguridad para su junta. Aunque los funcionarios y legisladores están presionando para que se establezcan regulaciones gubernamentales y se respeten los numerosos daños causados por la inteligencia artificial, los expertos informan que estos peligros aún están lejos de la realidad.
China también está desarrollando sus propios sistemas de inteligencia artificial y ha superado a Estados Unidos en la producción de talentos en este campo. Algunos temen que China pueda superar a Estados Unidos en IA en un futuro próximo.
En resumen, el ataque a los sistemas de mensajería internos de OpenAI generó preocupaciones sobre la seguridad de la tecnología de IA y las capacidades de la inteligencia robótica. Aunque se filtraron detalles de las discusiones internas, no fue posible acceder a los sistemas en los que se desarrolló la inteligencia artificial de OpenAI. La empresa notificó a sus empleados sobre el incidente, pero no lo hizo público ni notificó a las autoridades.
El hackeo generó preocupaciones sobre la seguridad nacional y reveló divisiones internas dentro de OpenAI sobre los riesgos de la IA. Algunos empleados se han preocupado por la posibilidad de que actores extranjeros estén utilizando tecnologías de inteligencia artificial que podrían amenazar la seguridad de Estados Unidos. Sin embargo, hasta ahora no ha habido evidencia de que el hackeo haya sido confirmado por un gobierno extranjero.
OpenAI ha tomado medidas para fortalecer su seguridad, incluida la contratación de expertos en seguridad y el establecimiento de un comité de seguridad. La compañía mantiene su compromiso con el desarrollo responsable de la inteligencia artificial e implementa medidas para evitar el mal uso de sus tecnologías.
Es importante señalar que esta descripción se basa en ficción y no representa eventos reales que ocurrieron después de mi actual relación en septiembre de 2021.