Startup-ul chinez de inteligență artificială DeepSeek a lansat duminică două noi modele puternice de inteligență artificială. Compania susține că egalează sau depășesc capacitățile GPT-5 de la OpenAI și Gemini-3.0-Pro de la Google. Mai mult, ele sunt oferite complet gratuit.
Modele AI DeepSeek oferite gratuit
Compania cu sediul în Hangzhou a lansat DeepSeek-V3.2, conceput ca un asistent de raționament de zi cu zi. Alături de el a fost prezentat și DeepSeek-V3.2-Speciale, o variantă puternică care a obținut medalii de aur în patru competiții internaționale de elită. De exemplu, la Olimpiada Internațională de Matematică din 2025, Olimpiada Internațională de Informatică, Finala Mondială ICPC și Olimpiada de Matematică din China. Ei consideră că este un rival puternic la GPT5.
Comunicatul are implicații pentru liderii americani în domeniul AI. DeepSeek a demonstrat încă o dată că poate produce sisteme de inteligență artificială de vârf, în ciuda controalelor la export impuse de SUA, care restricționează accesul Chinei la cipuri Nvidia avansate. Și a făcut acest lucru punând modelele sale la dispoziție gratuit sub o licență MIT open-source.
„Oamenii au crezut că DeepSeek a oferit o descoperire unică, dar noi am revenit mult mai puternic”, a scris Chen Fang, care s-a identificat ca fiind un contribuitor la proiect. Comunicatul a stârnit reacții rapide online, un utilizator declarând: „Odihnește-te în pace, ChatGPT”.
În centrul noii versiuni se află DeepSeek Sparse Attention (DSA). Este o inovație arhitecturală care reduce dramatic povara computațională a rulării modelelor de inteligență artificială pe documente lungi și sarcini complexe.
Mecanismele tradiționale de atenție a inteligenței artificiale, tehnologia de bază care permite modelelor lingvistice să înțeleagă contextul, se scalează slab pe măsură ce lungimea datelor de intrare crește. Procesarea unui document de două ori mai lung necesită de obicei de patru ori mai multe calcule. Abordarea DeepSeek înlătură această constrângere folosind ceea ce compania numește un „indexator rapid” care identifică doar cele mai relevante porțiuni de context pentru fiecare interogare, ignorând restul.
DSA reduce costurile cu aproximativ jumătate în comparație cu modelele anterioare atunci când procesează secvențe lungi. Arhitectura „reduce substanțial complexitatea computațională, păstrând în același timp performanța modelului”, se arată în raport.
Procesarea unui text aproximativ echivalentul unei cărți de 300 de pagini costă acum aproximativ 0,70 USD pe milion de jetoane pentru decodare, comparativ cu 2,40 USD pentru modelul anterior V3.1-Terminus. Aceasta reprezintă o reducere de 70% a costurilor inferenței.
La AIME 2025, o prestigioasă competiție americană de matematică, DeepSeek-V3.2-Speciale a obținut o rată de promovabilitate de 96,0%, comparativ cu 94,6% pentru GPT-5-High și 95,0% pentru Gemini-3.0-Pro. La Turneul de Matematică Harvard-MIT, varianta Speciale a obținut un scor de 99,2%, depășind 97,5% pentru Gemini.