ByteDance, skaparen av TikTok, upplevde nyligen ett säkerhetsbrott som involverade en praktikant som påstås ha saboterat träning av AI-modeller. Händelsen, som rapporterades på WeChat, väckte oro över företagets säkerhetsprotokoll på AI-avdelningen.
Som svar på detta, ByteDance förtydligat att även om den interna störde kommersialiseringsarbetet för AI påverkades ingen onlineverksamhet eller kommersiella projekt. Enligt företaget är ryktena om att över 8 000 GPU-kort påverkades och att intrånget resulterade i förluster på miljontals dollar överdrivna.
Det verkliga problemet här går utöver en oseriös praktikant – det belyser behovet av strängare säkerhetsåtgärder i teknikföretag, särskilt när praktikanter anförtros viktiga ansvarsområden. Även mindre misstag i högtrycksmiljöer kan få allvarliga konsekvenser.
Vid en undersökning fann ByteDance att praktikanten, en doktorand, ingick i teamet för kommersialiseringsteknik, inte i AI-laboratoriet. Personen avskedades i augusti.
Enligt den lokala mediekanalen Jiemian blev praktikanten frustrerad över resurstilldelningen och hämnades genom att utnyttja en sårbarhet i AI-utvecklingsplattformen Hugging Face. Detta ledde till störningar i modellutbildningen, även om ByteDances kommersiella Doubao-modell inte påverkades.
Trots avbrottet hade ByteDances team för automatiserad maskininlärning (AML) inledningsvis svårt att identifiera orsaken. Lyckligtvis påverkade attacken endast interna modeller, vilket minimerade den bredare skadan.
Kinas AI-marknad, som beräknas vara värd 250 miljarder dollar 2023, ökar snabbt i storlek, med branschledare som Baidu AI Cloud, SenseRobot och Zhipu AI som driver innovation. Incidenter som denna utgör dock en enorm risk för kommersialiseringen av AI-teknik, eftersom modellernas noggrannhet och tillförlitlighet är direkt relaterade till affärsframgångar.
Situationen väcker också frågor om hanteringen av praktikanter i teknikföretag. Praktikanter spelar ofta avgörande roller i snabba miljöer, men utan ordentlig tillsyn och säkerhetsprotokoll kan deras roller utgöra risker. Företag måste se till att praktikanter får adekvat utbildning och tillsyn för att förhindra oavsiktliga eller skadliga handlingar som kan störa verksamheten.
Konsekvenser för kommersialisering av AI
Säkerhetsintrånget belyser de möjliga riskerna för kommersialisering av AI. En störning i träningen av AI-modeller, som denna, kan leda till förseningar i produktlanseringar, förlust av kundförtroende och till och med ekonomiska förluster. För ett företag som ByteDance, där AI driver kärnfunktionaliteter, är den här typen av incidenter särskilt skadliga.
I frågan betonas vikten av etisk AI-utveckling och affärsansvar. Företagen måste inte bara utveckla banbrytande AI-teknik, utan också säkerställa säkerheten och ha en ansvarsfull förvaltning. Öppenhet och ansvarstagande är avgörande för att behålla förtroendet i en tid när AI spelar en viktig roll i affärsverksamheten.
(Foto av Jonathan Kemper)
Se även: Microsoft får en stor AI-klient när TikTok spenderar 20 miljoner dollar varje månad
Vill du lära dig mer om AI och big data från branschledare? Kolla in AI & Big Data Expo som äger rum i Amsterdam, Kalifornien och London. Det omfattande evenemanget är samlokaliserat med andra ledande evenemang, bland annat Konferens om intelligent automation, BlockX, Veckan för digital omvandling, och Cybersäkerhet & Cloud Expo.
Utforska andra kommande evenemang och webbseminarier om företagsteknik som drivs av TechForge här.