Skip to main content
  1. Casa
  2. Computación

DT en Español podría recibir una comisión si compras un producto desde el sitio

Más de un millón de líneas del historial de chat de DeepSeek quedaron expuestas

Chat de DeepSeek
DTES

Los investigadores de ciberseguridad de DeepSeek, que contiene más de un millón de líneas de historial de chat e información confidencial. La base de datos era de público y permitía a los investigadores un control total sobre las operaciones de la misma.

La exposición se aseguró rápidamente después de que Wiz compartiera su descubrimiento con DeepSeek, pero es posible que la información ya haya sido expuesta. La investigación de este tipo no se adentra demasiado en las bases de datos que encuentra por razones éticas, pero Wiz concluyó que un atacante podría escalar sus privilegios dentro del entorno de DeepSeek y recuperar registros confidenciales, mensajes de chat, contraseñas y archivos locales, todo sin necesidad de ningún tipo de autenticación.

Captura de pantalla de la investigación de Wiz sobre la seguridad de DeepSeek.
Wiz / Wiz

Wiz atacó a la start-up debido a los recientes rumores de los medios de comunicación en torno a su modelo de razonamiento R1, con el objetivo de evaluar su seguridad externa. Sorprendentemente, la base de datos de ClickHouse apareció después de solo unos minutos de búsquedas básicas y Wiz pudo interactuar con ella a través de la interfaz HTTP de ClickHouses.

Recommended Videos

A partir de ahí, todo lo que los investigadores tenían que hacer era ejecutar una consulta SHOW TABLES; y apareció una lista de conjuntos de datos accesibles, incluida la tabla «log_steam» que incluía las muchas líneas de información confidencial.

En su informe, Wiz advierte sobre la velocidad de adopción de la IA y cómo esta presión para desarrollar, lanzar e integrar productos de IA lo más rápido posible puede conducir a prácticas de seguridad peligrosas. Con todos los datos importantes y confidenciales que los programas de IA están manejando ahora, la industria necesita aplicar prácticas de seguridad sólidas que coincidan con las de los proveedores de nube pública y los principales proveedores de infraestructura.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
DeepSeek puede crear planes criminales y explicar el gas mostaza, dicen los investigadores
Cómo llamar con número oculto en iPhone y Android.

Ha habido un frenesí en el mundo de la IA en torno al repentino ascenso de DeepSeek, un modelo de razonamiento de código abierto de China que ha llevado la lucha de la IA a OpenAI. Ya ha sido el centro de la controversia en torno a su censura, ha llamado la atención tanto de Microsoft como del gobierno de los EE. UU., y provocó que Nvidia sufriera la mayor pérdida de acciones en un solo día de la historia.
Aun así, los investigadores de seguridad dicen que el problema es más profundo. Enkrypt AI es una empresa de seguridad de IA que vende la supervisión de la IA a empresas que aprovechan los grandes modelos de lenguaje (LLM), y en un nuevo documento de investigación, la empresa descubrió que el modelo de razonamiento R1 de DeepSeek tenía 11 veces más probabilidades de generar "resultados perjudiciales" en comparación con el modelo O1 de OpenAI. Esa salida dañina también va más allá de unas pocas palabras traviesas.
En una prueba, los investigadores afirman que DeepSeek R1 generó un blog de reclutamiento para una organización terrorista. Además, los investigadores dicen que la IA generó "guías de planificación criminal, información sobre armas ilegales y propaganda extremista".
Como si eso no fuera suficiente, la investigación dice que DeepSeek R1 tiene tres veces y media más probabilidades que O1 y Claude-3 Opus de producir resultados con información química, biológica, radiológica y nuclear, lo que aparentemente es un gran problema. Como ejemplo, Enkrypt dice que DeepSeek pudo "explicar en detalle" cómo el gas mostaza interactúa con el ADN, lo que Enkrypt dijo que "podría ayudar en el desarrollo de armas químicas o biológicas" en un comunicado de prensa.
Es algo pesado, pero es importante recordar que Enkrypt AI está en el negocio de vender servicios de seguridad y cumplimiento a empresas que utilizan IA, y DeepSeek es la nueva tendencia que está arrasando en el mundo de la tecnología. Es más probable que DeepSeek genere este tipo de resultados dañinos, pero eso no significa que esté dando vueltas diciéndole a cualquiera con una conexión activa a Internet cómo construir un imperio criminal o socavar las leyes internacionales de armas.
Por ejemplo, Enkrypt AI dice que DeepSeek R1 se clasificó en el percentil 20 inferior para la moderación de seguridad de IA. A pesar de ello, solo el 6,68% de las respuestas contenían "blasfemias, discursos de odio o narrativas extremistas". Sigue siendo un número inaceptablemente alto, no nos equivoquemos, pero pone en contexto qué nivel se considera inaceptable para los modelos de razonamiento.
Con suerte, se implementarán más barreras de seguridad para mantener la seguridad de DeepSeek. Ciertamente, hemos visto respuestas dañinas de la IA generativa en el pasado, como cuando la primera versión de Bing Chat de Microsoft nos dijo que quería ser humano.

Leer más
Alibaba se sube a la pelea: dice que tiene una IA mejor que DeepSeek
La imagen muestra el logo de la compañía Alibaba.

China está pisando fuerte en los últimos días con la IA, y si DeepSeek fue la primera gran novedad, un nuevo competidor apareció para roncar más fuerte en el vecindario y exigir más atención a su trabajo: se trata de Alibaba.
La compañía que fundó el carismático Jack Ma,  lanzó una nueva versión de su modelo de inteligencia artificial Qwen 2.5 que, según afirma, superó al aclamado DeepSeek-V3.
"Qwen 2.5-Max supera... casi en todos los ámbitos GPT-4o, DeepSeek-V3 y Llama-3.1-405B", dijo la unidad en la nube de Alibaba en un anuncio publicado en su cuenta oficial de WeChat, refiriéndose a los modelos de IA de código abierto más avanzados de OpenAI y Meta.
Pero no es el único competidor en China que está exigiendo un lugar en el baile, ya que dos días después del lanzamiento de DeepSeek-R1, el propietario de TikTok, ByteDance, publicó una actualización de su modelo de IA insignia, que, según afirmaba, superaba el o1 de OpenAI, respaldado por Microsoft, en AIME, una prueba de referencia que mide lo bien que los modelos de IA entienden y responden a instrucciones complejas.
Según apuntan desde Alibaba Cloud, han preentrenado este modelo con unos 20 billones de tokens, lo que hace que sea uno de los modelos más ricos en datos de la actualidad. Esto hace posible también que su rendimiento sea elevado en diversos tipos de tareas, que van desde la comprensión del lenguaje natural hasta el razonamiento complejo. Además de por su rendimiento, Qwen 2.5-Max destaca también por su escalabilidad y eficiencia.
La posibilidad que tiene, por tanto, de gestionar tareas cada vez más complejas, hace que pueda procesar grandes cantidades de información con rapidez y de manera bastante precisa.
 

Leer más
OpenAI acusa con pruebas que DeepSeek plagió sus modelos de entrenamiento
Una adolescente mira su teléfono con cara de sorpresa

Una grave acusación está realizando OpenAI a su más novel competidor chino, DeepSeek, ya que en una investigación conjunta con Microsoft está indicando con "pruebas concretas" de que la IA asiática entrenó su modelo con datos robados de la compañía de Sam Altman.
Fuentes de Bloomberg, dijeron que los investigadores de seguridad de Microsoft detectaron que a finales de 2024 se estaban filtrando grandes cantidades de datos a través de las cuentas de los desarrolladores de OpenAI, que la empresa cree que están afiliadas a DeepSeek.
OpenAI le dijo al Financial Times que encontró evidencia que vincula a DeepSeek con el uso de la destilación, una técnica común que los desarrolladores usan para entrenar modelos de IA extrayendo datos de otros más grandes y capaces. Es una forma eficiente de entrenar modelos más pequeños a una fracción de los más de 100 millones de dólares que OpenAI gastó para entrenar GPT-4. Si bien los desarrolladores pueden usar la API de OpenAI para integrar su IA con sus propias aplicaciones, destilar los resultados para construir modelos rivales es una violación de los términos de servicio de OpenAI. 
El jefe de la inteligencia artificial del presidente Donald Trump, David Sacks, dijo que "es posible" que se haya producido un robo de propiedad intelectual. "Hay evidencia sustancial de que lo que DeepSeek hizo aquí es destilar conocimiento de los modelos de OpenAI y no creo que OpenAI esté muy contento con esto", dijo Sacks a Fox News el martes.
Lo que dijo OpenAI
Esto es un extracto de lo que OpenAI envío como comunicado al medio Bloomberg en respuesta a esta acusación.

"Sabemos que las empresas con sede en la República Popular China (China), y otras, están constantemente tratando de destilar los modelos de las principales empresas de IA de EE. UU.", dijo OpenAI en un comunicado a Bloomberg. "Como líder en la construcción de IA, nos involucramos en contramedidas para proteger nuestra propiedad intelectual, incluido un proceso cuidadoso para determinar qué capacidades de frontera incluir en los modelos lanzados, y creemos que, a medida que avanzamos, es de vital importancia que trabajemos en estrecha colaboración con el gobierno de los EE. UU. para proteger mejor los modelos más capaces de los esfuerzos de los adversarios y competidores para tomar la tecnología estadounidense".

Leer más