Samsung verbiedt AI-software na lekken broncode
Personeel van telefoonmaker Samsung mag niet langer gebruikmaken van slimme AI-software zoals ChatGPT, nadat eerder gebruik leidde tot het lekken van gevoelige informatie.
De techreus stuurde op maandag een intern bericht naar personeel, waarin wordt verboden om voor werkgerelateerde zaken generatieve AI-software te gebruiken. Ze mogen niet langer gevoelige bedrijfsinformatie met een AI delen.
Een woordvoerder bevestigt tegenover Bloomberg dat dit bericht is verzonden. "Interesse in AI-platformen zoals ChatGPT groeit bij ons intern en extern. Die interesse richt zich vooral op hoe nuttig en handig deze platformen zijn, maar er zijn ook zorgen over beveiligingsproblemen."
Interne code gelekt
In april bleek dat personeel van Samsung interne broncode van software naar ChatGPT had gestuurd, waardoor die AI de gevoelige code in handen kreeg. Het techbedrijf vreest dat op die manier gevoelige gegevens op straat komen te liggen.
ChatGPT kan op basis van jouw opdrachten allerlei taken uitvoeren en bijvoorbeeld teksten of websites schrijven. Waarschijnlijk had een Samsung-medewerker aan de AI gevraagd iets met de broncode te doen, maar werd er niet bij stilgestaan dat ChatGPT-maker OpenAI hierdoor diezelfde code in handen kon krijgen.
AI bij Samsung
Uit een peiling binnen het bedrijf blijkt dat 65% van de werknemers vreest dat AI beveiligingsrisico's met zich meebrengt.
Tegelijkertijd implementeert Samsung AI-software steeds nauwer in zijn eigen software. De chatbot van Microsoft staat nu bijvoorbeeld standaard op veel Samsung-telefoons geïnstalleerd. Daarnaast zou het bedrijf overwegen Bing de standaard zoekmachine te maken, omdat de ingebouwde AI zo goed werkt.