X

DeepSeek are Prima Problema Grava, care Arata Fragilitatea Sa

DeepSeek, a fost implicat intr-o breșa de securitate grava, dupa ce o baza de date sensibila a fost expusa publicului fara niciun fel de autentificare. Potrivit cercetatorilor, expunerea a permis accesul complet la istoricul chat-urilor utilizatorilor, cheile de autentificare API, jurnalele de sistem si alte informatii confidentiale.

Baza de date vulnerabila a fost descoperita in doar cateva minute, fiind gazduita pe o platforma open-source numita ClickHouse. Cercetatorii au identificat peste un milion de linii de jurnal, ceea ce indica un volum masiv de informatii compromise. Mai ingrijorator este faptul ca atacatorii ar fi putut escalada privilegiile in sistemul DeepSeek, obtinand acces la infrastructura interna a companiei.

Dupa ce problema a fost semnalata, DeepSeek a securizat imediat baza de date, dar ramane neclar daca datele expuse au fost accesate de persoane rau intentionate. Expertii de securitate de la Wiz, cei care au descoperit incidentul, au declarat pentru Wired ca descoperirea a fost „banal de simpla”, ceea ce ridica semne de intrebare asupra practicilor de securitate ale companiei.

Acest incident vine intr-un context tensionat pentru DeepSeek, care recent a fost acuzat de OpenAI ca si-ar fi antrenat modelele AI folosind datele sale. Potrivit cercetatorilor Wiz, arhitectura sistemului DeepSeek seamana izbitor cu cea utilizata de OpenAI, inclusiv in ceea ce priveste formatul cheilor API. Aceste similitudini alimenteaza speculatiile cu privire la originile si metodele de dezvoltare ale modelului DeepSeek.

Aceasta breșa de securitate subliniaza riscurile tot mai mari legate de gestionarea datelor in era AI. Lipsa unor masuri stricte de securitate poate duce la expunerea de informatii sensibile, punand in pericol utilizatorii si companiile. DeepSeek trebuie acum sa isi refaca imaginea si sa demonstreze ca poate gestiona in siguranta datele utilizatorilor sai.

Redactia iDevice.ro

This post was last modified on ian. 30, 2025, 11:15 PM 23:15

Disqus Comments Loading...