Etikettarkiv: AIsäkerheten

OpenAI förbättrar AI-säkerheten med nya metoder för red teaming

En viktig del av OpenAI:s säkerhetsprocess är ”red teaming” – en strukturerad metod som använder både mänskliga och AI-deltagare för att utforska potentiella risker och sårbarheter i nya system. Historiskt sett har OpenAI engagerat sig i red teaming-insatser främst genom manuell testning, vilket innebär att individer söker efter svagheter. Detta användes framför allt under testningen… Läs mer »