Microsoftin yrityksen AI -sovellukset laajenevat nopeasti, mutta äskettäinen löytö osoittaa, että turvallisuus ei välttämättä ole tahdissa. Huhtikuussa hollantilainen kyberturvallisuusyritys silmäturvallisuuslöysi kriittisen haavoittuvuudenCopilot Enterprise.
Virheen löydettiin, kun turvallisuusryhmä arvioi Microsoftin AI -ominaisuuksia. Arvioinnin aikana he löysivät tavan suorittaa komentoja järjestelmätasolla, mikä johtui tietoturvariskistä alustan live Python Sandboxissa (erityisesti Jupyter -muistikirjoissa).
Oikealla komennolla hyökkääjät voivat suorittaa koodin taustalla hiljaa. Järjestelmätason pääsyn haavoittuvuus on merkittävä riski kaikille yritysalustalle. Microsoft arvioi kuitenkin haavoittuvuuden ”keskisuuriksi” riskiksi eikä tarjonnut virheitä.
Ehdotettu lukeminen:Repit Partners Microsoftin kanssa tuoda no-koodiohjelmiston rakentaminen yritykseen
Tutkijat pystyivät hyödyntämään yleisesti käytettyä työkalua, PGREP: tä, hyväksikäytön käynnistämiseksi. Se, että se toimi, oli turvallisuusriski, ja ominaisuudet eivät pysähtyneet siihen. Eye Security -tiimi käytti myös Microsoftin vastuullista AI -operaatiopaneelia, joka oli tarkoitettu valvomaan ja noudattamaan Copilot -järjestelmiä.
Ja he eivät pysähtyneet siihen; Analyysi ehdotti laajempia kysymyksiä, jotka liittyvät Microsoftin nopeasti laajentavaan AI-pinoon. AI-yhteensopivien työkalujen ylinopeudella vakiintuneet turvallisuuskäytännöt eivät ole kiinni. Lisäksi Venäjän ja Kiinan valtion toimijoille on annettu viime aikoina.
Lisäksi on syytä huomata, että silmäturvallisuus aikoo hajottaa haavoittuvuuden yksityiskohtaisesti Blackhat USA 25: ssä ensi kuussa. Heidän istuntonsa, jonka otsikko on ”Suostumus ja kompromissi”, on suunniteltu 7. elokuuta kello 13.30 Las Vegasissa.












