Tankesmedja efterlyser AI-system för incidentrapportering

Av | 26 juni 2024


Den Centrum för långsiktig resiliens (CLTR) har efterlyst ett omfattande incidentrapporteringssystem för att snarast åtgärda en kritisk lucka i regleringsplanerna för AI.

Enligt CLTR har AI en historia av att misslyckas på oväntade sätt, med över 10.000 säkerhetsincidenter registrerade av nyhetsbyråer i utplacerade AI-system sedan 2014. I takt med att AI blir allt mer integrerat i samhället kommer frekvensen och effekterna av dessa incidenter sannolikt att öka.

Tankesmedjan menar att ett välfungerande system för incidentrapportering är avgörande för en effektiv AI-reglering och drar paralleller till säkerhetskritiska branscher som flyg och medicin. Denna syn stöds av ett brett samförstånd bland experter, liksom av de amerikanska och kinesiska regeringarna och EU.

I rapporten beskrivs tre viktiga fördelar med att införa ett incidentrapporteringssystem:

  1. Övervakning av säkerhetsrisker med AI i den verkliga världen för att informera om regleringsjusteringar
  2. Samordna snabba svar vid större incidenter och utreda grundorsaker
  3. Identifiera tidiga varningar av potentiella storskaliga framtida skador

För närvarande saknar Storbritanniens AI-reglering ett effektivt ramverk för incidentrapportering. Denna lucka gör att Department for Science, Innovation & Technology (DSIT) inte har någon insyn i olika kritiska incidenter, inklusive:

  • Problem med mycket kapabla grundmodeller
  • Incidenter från den brittiska regeringens egen AI-användning i offentliga tjänster
  • Missbruk av AI-system för skadliga syften
  • Skador orsakade av AI-kompanjoner, handledare och terapeuter

CLTR varnar för att DSIT, utan ett ordentligt incidentrapporteringssystem, kan få kännedom om nya skador genom nyhetskanaler snarare än genom etablerade rapporteringsprocesser.

För att åtgärda denna brist rekommenderar tankesmedjan tre omedelbara steg för den brittiska regeringen:

  1. Statligt system för incidentrapportering: Inrätta ett system för att rapportera incidenter från AI som används i offentliga tjänster. Detta kan vara en enkel utvidgning av Standard för inspelning av algoritmisk transparens (ATRS) för att inkludera AI-incidenter i den offentliga sektorn, som matas in till ett statligt organ och eventuellt delas med allmänheten för transparens.
  2. Engagera tillsynsmyndigheter och experter: Tillsätt tillsynsmyndigheter och rådgör med experter för att identifiera de största bristerna, säkerställa effektiv täckning av prioriterade incidenter och förstå intressenternas behov av ett fungerande system.
  3. Bygga upp DSIT-kapacitet: Utveckla DSIT:s förmåga att övervaka, utreda och reagera på incidenter, eventuellt genom en pilotdatabas för AI-incidenter. Detta skulle utgöra en del av DSIT:s centrala funktion och inledningsvis fokusera på de mest brådskande luckorna, men så småningom utvidgas till att omfatta alla rapporter från brittiska tillsynsmyndigheter.

Dessa rekommendationer syftar till att förbättra regeringens förmåga att på ett ansvarsfullt sätt förbättra offentliga tjänster, säkerställa effektiv täckning av prioriterade incidenter och utveckla den nödvändiga infrastrukturen för att samla in och svara på AI-incidentrapporter.

Veera Siivonen, CCO och partner på Saidot, kommenterade:

”Den här rapporten från Centre for Long-Term Resilience kommer i rätt ögonblick. När Storbritannien nu går till parlamentsval kommer nästa regerings AI-politik att utgöra hörnstenen för den ekonomiska tillväxten. Detta kräver dock precision när det gäller att navigera i balansen mellan reglering och innovation, att tillhandahålla skyddsräcken utan att begränsa branschens potential för experiment. Att införa ett centraliserat incidentrapporteringssystem för missbruk av AI och funktionsstörningar skulle vara ett lovvärt första steg, men det finns många fler steg att ta.

Den tillträdande brittiska regeringen bör skapa säkerhet och förståelse för företag med tydliga styrningskrav, samtidigt som de mest sannolika riskerna övervakas och begränsas. Genom att integrera en rad olika strategier för styrning av AI med centraliserad incidentrapportering kan Storbritannien utnyttja den ekonomiska potentialen i AI och säkerställa att den gynnar samhället samtidigt som demokratiska processer och allmänhetens förtroende skyddas.”

I takt med att AI fortsätter att utvecklas och genomsyra olika aspekter av samhället kan införandet av ett robust incidentrapporteringssystem visa sig vara avgörande för att minska riskerna och säkerställa en säker utveckling och användning av AI-teknik.

Se även följande: SoftBank-chef: Glöm AGI, ASI kommer att vara här inom 10 år

Vill du lära dig mer om AI och big data från branschledare? Kolla in AI & Big Data Expo som äger rum i Amsterdam, Kalifornien och London. Det omfattande evenemanget är samlokaliserat med andra ledande evenemang, bland annat Konferens om intelligent automation, BlockX, Veckan för digital omvandling, och Cybersäkerhet & Cloud Expo.

Utforska andra kommande evenemang och webbseminarier om företagsteknik som drivs av TechForge här.

Taggar: , , , , , , , , ,



Source link