DeepSeek julkaisi V3.2-mallisarjansa maanantaina väittäen vastaavansa Googlen Gemini 3 Pron päättelykykyä. Päivitys sisältää korkean laskentatason "Special"-variantin, jonka kerrotaan saavuttaneen kultamitalin statuksen 2025 International Mathematical Olympiadissa (IMO), vertailukohtana, jota aiemmin hallitsivat patentoidut yhdysvaltalaiset mallit.
Pääsy tähän huipputason suorituskykyyn on tiukasti rajoitettu. Valtaisiin laskennallisiin lisäkustannuksiin vedoten DeepSeek on rajoittanut Speciale-mallin väliaikaiseen API-ikkunaan, joka vanhenee 15. joulukuuta ja pakottaa kehittäjät luottamaan standardi V3.2-malliin tuotannon työnkuluissa.
"Erikois"-benchmark: Tasa-arvo saaliin kanssa
DeepSeek-V3.2-Speciale edustaa merkittävää harppausta avoimessa päättelykykyisyydessä ja haastaa suoraan patentoitujen mallien dominanssin. Mukaantekninen raportti, malli saavutti kultamitalin sekä 2025 International Mathematical Olympiadissa (IMO) että International Olympiad in Informaticsissa (IOI), joka on samanlainen kuin äskettäin julkaistu DeepSeekMath-V2-malli.
Yrityksen mainitsemat sisäiset vertailuarvot viittaavat siihen, että malli ylittää sekä OpenAI:n GPT-5:n että Google Gemini 3 Pron päättelytehtävissä, mikä on rohkea väite, kun otetaan huomioon viimeksi mainitun markkina-asema äskettäisen julkaisun jälkeen.
Korostaen muutosta avoimen lähdekoodin maisemassa DeepSeek Research Team totesi:
"DeepSeek-V3.2-Speciale ylittää GPT-5:n ja osoittaa päättelykykyä Gemini-3.0-Pron tasolla, saavuttaen kultamitalin sekä vuoden 2025 kansainvälisessä matemaattisessa olympialassa (IMO) että kansainvälisessä tietotekniikan olympialassa (IOI)."
Pääsy tälle suoritustasolle on ankarasti rajoitettu.Virallinen tiedotevahvistaa, että Specialen API-päätepiste on väliaikainen ja sen voimassaolo päättyy 15. joulukuuta 2025.
Tällainen lyhyt saatavuusikkuna tarkoittaa, että mallin päättelykustannukset ovat kestämättömiä yleisessä julkisessa julkaisussa nykyisellä hinnoittelulla, jolloin variantti asetetaan "tutkimuksen huipuksi" eikä tuotannon työhevoseksi.
Vakaata integraatiota etsivien kehittäjien on etsittävä muualta, koska Speciale-versio ei tue työkalujen käyttöä, vaan keskittyy yksinomaan puhtaaseen päättelyyn ja ongelmanratkaisuun. Kuvaa mallin asemaa sen ensisijaista yhdysvaltalaista kilpailijaa vastaanDeepSeek API -dokumentaatiopanee merkille, että "V3.2-Speciale: Enimmäistehoiset päättelyominaisuudet. Kilpailija Gemini-3.0-Pro."
Konepellin alla: DeepSeek Sparse Attention (DSA)
Driving V3.2 on "DeepSeek Sparse Attention" (DSA), mekanismi, joka on suunniteltu ratkaisemaan pitkän kontekstin käsittelyn tehokkuuden pullonkaula. Perinteiset "vanilja" huomiomekanismit skaalautuvat neliöllisesti sarjan pituuden mukaan, mikä tekee pitkistä asiakirjoista laskennallisesti kallista käsitellä.
Kertomalla erityiset rajoitukset, jotka vaativat tätä uutta arkkitehtuuria,tekninen raporttiselittää:
"Analyysimme avulla tunnistamme kolme kriittistä puutetta, jotka rajoittavat avoimen lähdekoodin mallien kykyä monimutkaisissa tehtävissä."
"Ensinnäkin arkkitehtonisesti vallitseva riippuvuus vaniljan huomiomekanismeista rajoittaa vakavasti pitkien sarjojen tehokkuutta."
"Toiseksi, mitä tulee resurssien allokointiin, avoimen lähdekoodin mallit kärsivät riittämättömistä laskennallisista investoinneista koulutuksen jälkeisessä vaiheessa."
"Lopuksi, tekoälyagenttien kontekstissa avoimen lähdekoodin mallit osoittavat huomattavan viiveen yleistämisessä ja ohjeiden seuraamisessa."
DSA vähentää tätä monimutkaisuutta käsittelemällä valikoivasti relevantteja tunnuksia, jolloin malli pystyy käsittelemään 128 000 kontekstiikkunoita huomattavasti pienemmällä yleiskululla. Virallistaa aikaisemmat kokeilut, tämä lähestymistapa perustuu kokeelliseen V3.2-julkaisuun, joka nähtiin syyskuussa.
Selitetään optimointi laajennettuja työnkulkuja vartenDeepSeek-tutkimusryhmätotesi, että "Otamme käyttöön DSA:n, tehokkaan huomiomekanismin, joka vähentää merkittävästi laskennan monimutkaisuutta säilyttäen samalla mallin suorituskyvyn ja joka on optimoitu erityisesti pitkän kontekstin skenaarioihin."
DeepSeekin kohtaamat laitteistorajoitukset vaativat tämän tehokkuuden keskittymisen. Optimoimalla tehokkuutta, laboratorio voi tarjota kilpailukykyistä suorituskykyä jopa ilman pääsyä suuriin Nvidia H100 -klustereihin, jotka ovat yhdysvaltalaisten kilpailijoiden käytettävissä.
Yhteenvetona tämän julkaisun määrittävistä teknisistä saavutuksista,tekninen raporttilistaa tärkeimmät läpimurrot:
"Esittelemme DeepSeek Sparse Attention (DSA): Esittelemme DSA:n, tehokkaan huomiomekanismin, joka vähentää merkittävästi laskennan monimutkaisuutta ja säilyttää mallin suorituskyvyn pitkän kontekstin skenaarioissa."
"Skaalautuva vahvistusoppimiskehys: Ottamalla käyttöön vankan vahvistusoppimisprotokollan ja skaalauttamalla harjoituksen jälkeistä laskelmaa, DeepSeek-V3.2 toimii verrattavissa GPT-5:een."
"Laajamainen agenttitehtävän synteesiputki: integroidaksemme päättelyn työkalun käyttöskenaarioihin, kehitimme uuden synteesiputkiston, joka tuottaa systemaattisesti koulutusdataa mittakaavassa."
Agentic Evolution: Ajattele työskennellessään
Raakapäättelyn lisäksi V3.2 tuo suuren muutoksen siihen, miten mallit käsittelevät agenttitehtäviä: "Thinking in Tool-Use". Aiemmat mallit erottivat päättelyvaiheen tyypillisesti työkalun suoritusvaiheesta, mikä johti hajanaisiin työnkulkuihin, joissa malli lakkasi "ajattelemasta" komennon suorittamista.
V3.2 integroi päättelyprosessin suoraan työkalun käyttösilmukkaan, jolloin malli voi säilyttää ajatusketjunsa suorittaessaan ulkoisia toimintoja. Kuvaamalla tämän integraation käytännön etuja DeepSeek-tutkimustiimi selitti, että "DeepSeek-V3.2 on ensimmäinen mallimme, joka integroi ajattelun suoraan työkalun käyttöön, ja tukee myös työkalujen käyttöä sekä ajattelussa että ei-ajattelussa."
Lisää luettavaa:DeepSeekin seuraava R2-perustelu AI-malli pysähtyy USA:n pelimerkkisodan uhrina
Tämän kyvyn kouluttamiseksi DeepSeek kehitti laajan synteettisen dataputken, joka tuottaa yli 1 800 ympäristöä ja 85 000 monimutkaista ohjetta. Yleistäminen näkymättömiin tehtäviin paranee merkittävästi tämän synteettisen datalähestymistavan ansiosta, mikä korjaa aiempien avoimen lähdekoodin agenttien kriittisen heikkouden.
Tätä täyttä agenttityönkulkua tukeva V3.2-standardimalli asettaa itsensä ensisijaiseksi vaihtoehdoksi itsenäisiä järjestelmiä rakentaville kehittäjille. Asettamalla vakiomallin tasapainoksi suorituskyvyn ja tehokkuuden välilläDeepSeek API -dokumentaatiokutsuu sitä "päivittäiseksi kuljettajaksi GPT-5-tason suorituskyvyllä".
Markkinatilanne: Marraskuun tekoälyn kiire
Kiihkeän tekoälyn julkaisukuukauden päätteeksi V3.2 julkaistaan Googlen Gemini 3 Pron, OpenAI:n GPT-5.1:n ja Claude Opus 4.5:n jälkeen. DeepSeek nimenomaan asettuu ensisijaiseksi avoimeksi vaihtoehdoksi näille yhdysvaltalaisille jättiläisille.
Suoraan Googlen äskettäiseen Gemini 3 -markkinointiin vastapainona "Gold Medal" -vaatimus korostaa matematiikan kilpailun suorituskykyä keskeisenä erottajana. DeepSeekMath-V2:n vauhti tukee tätä saavutusta ja vahvistaa yrityksen matemaattisen päättelyn kyvykkyyttä aiemmin tässä kuussa.
Vaikka yhdysvaltalaiset mallit keskittyvät ekosysteemien lukitukseen (kuten Windows for OpenAI ja Workspace for Google), DeepSeekin avoin lähestymistapa on suunnattu laajemmalle kehittäjäyhteisölle. Speciale-mallin väliaikainen luonne kuitenkin korostaa kasvavaa eroa "tuotantomallien" ja "tutkimuksen" mallien välillä.
Kun laskentakustannukset nousevat, jopa hyvin rahoitetut laboratoriot kamppailevat tehdäkseen tehokkaimmista malleistaan taloudellisesti kannattavia yleiseen julkaisuun.















