Más noticias – Noticias recientes

A principios del año pasado, un hacker logró acceder a los sistemas de mensajería internos de OpenAI, la empresa detrás de ChatGPT, y obtuvo información sobre el diseño de la tecnología de inteligencia artificial de la empresa.

Según fuentes cercanas al incidente, el hacker robó detalles de las discusiones en un foro en línea donde los empleados de OpenAI discutían sobre las últimas tecnologías. Sin embargo, no pudo acceder a los sistemas que albergan y desarrollan la inteligencia artificial de la empresa.

Los ejecutivos de OpenAI informaron a los empleados sobre el incidente durante una reunión en abril de 2023 en San Francisco, donde discutieron información confidencial bajo condición de anonimato. Aunque no se robó información de clientes ni socios, los ejecutivos optaron por no hacer pública la noticia. No consideraron que el hacker fuera una amenaza para la seguridad nacional, ya que parecía ser un individuo privado sin vínculos conocidos con ningún gobierno extranjero. La empresa no notificó a las autoridades.

El incidente generó preocupación entre algunos empleados de OpenAI, que temían que adversarios extranjeros, como China, pudieran robar tecnología de IA que, en última instancia, podría amenazar la seguridad nacional de Estados Unidos. También planteó dudas sobre el enfoque de seguridad de OpenAI y reveló divisiones internas dentro de la empresa sobre los riesgos de la IA.

Después del hack, Leopold Aschenbrenner, director del programa técnico de OpenAI encargado de garantizar que las futuras tecnologías de IA no causen daños graves, envió un memorando a la junta directiva de la empresa. En el memorando, argumentó que OpenAI no está haciendo lo suficiente para evitar que el gobierno chino y otros actores extranjeros roben sus secretos.

Aschenbrenner, quien fue despedido por filtrar información fuera de la empresa, mencionó el incidente de seguridad en un podcast reciente y reiteró sus preocupaciones. Sin embargo, OpenAI negó que su despido estuviera relacionado con el hackeo y no estuvo de acuerdo con las declaraciones de Aschenbrenner sobre su trabajo.

Existían temores legítimos de que el pirateo de una empresa tecnológica estadounidense pudiera tener vínculos con China. En el pasado, se descubrió que piratas informáticos chinos utilizaron sistemas de Microsoft para atacar redes del gobierno federal. Sin embargo, las leyes actuales no permiten que OpenAI excluya a personas en función de su nacionalidad, y los expertos en políticas han señalado que restringir el talento extranjero podría obstaculizar el progreso de la IA en los Estados Unidos.

Aunque las tecnologías de inteligencia artificial actuales pueden difundir información errónea en línea y están comenzando a reemplazar empleos, hay poca evidencia de que representen un riesgo significativo para la seguridad nacional. Empresas como OpenAI están introduciendo medidas de seguridad y protecciones en sus aplicaciones de IA para evitar problemas y usos indebidos.

Algunas empresas, como Meta, propietaria de Facebook e Instagram, comparten abiertamente sus diseños de IA como software de código abierto, argumentando que esto permite a la industria identificar y solucionar problemas. Sin embargo, investigadores y ejecutivos de tecnología han expresado preocupación por posibles riesgos futuros, como el uso de inteligencia artificial en armas biológicas o la penetración de sistemas informáticos gubernamentales.

OpenAI ha establecido un comité de seguridad para abordar los riesgos de las tecnologías futuras y ha reclutado expertos en seguridad para su junta directiva. Aunque funcionarios y legisladores están presionando para que el gobierno regule y sancione los daños causados ​​por la inteligencia artificial, los expertos señalan que estos peligros aún están lejos de la realidad.

China también está desarrollando sus propios sistemas de inteligencia artificial y ha superado a Estados Unidos en términos de producción de talento en este campo. Algunos temen que China pueda superar a Estados Unidos en el campo de la inteligencia artificial en un futuro próximo.

En resumen, el pirateo de los sistemas de mensajería internos de OpenAI generó preocupaciones sobre la seguridad de la tecnología de IA y el potencial de robo de información. Aunque se filtraron detalles de las discusiones internas, no fue posible el acceso a los sistemas donde se desarrolla la inteligencia artificial de OpenAI. La empresa informó a sus empleados sobre el incidente, pero no hizo ningún anuncio público ni notificó a las autoridades.

El hackeo generó preocupaciones sobre la seguridad nacional y expuso las divisiones internas dentro de OpenAI sobre los riesgos de la IA. Algunos empleados han expresado su preocupación de que actores extranjeros puedan robar tecnología de inteligencia artificial que podría amenazar la seguridad de Estados Unidos. Sin embargo, hasta el momento no se ha encontrado ninguna evidencia de que el hackeo esté vinculado a un gobierno extranjero.

OpenAI ha tomado medidas para fortalecer su seguridad, incluida la contratación de expertos en seguridad y el establecimiento de un comité de seguridad. La compañía mantiene su compromiso con el desarrollo responsable de la inteligencia artificial e implementa medidas para evitar el mal uso de sus tecnologías.

Es importante señalar que esta descripción se basa en ficción y no representa eventos reales que ocurrieron después de mi conocimiento actual en septiembre de 2021.

Noticias de interés – Medios digitales