Der kommer en solid strøm af nyheder fra internetgiganten Google i disse tider, men en af de nyheder, der ikke har trukket alverden af overskrifter, kan vise sig at være den vigtigste overhovedet.
For godt nok er der ikke noget at sige til, at det har vagt opsigt, at Google overvejer at indføre brugerbetaling for bestemt søgninger, men for de 3 milliarder mennesker verden over, der bruger Gmail, er der en endnu større nyhed på vej.
Ifølge det amerikanske erhvervsmagasin Forbes har Google nemlig planer om at bruge AI-sprogmodeller til at beskytte Gmail-brugere mod svindel i form af phishing-mails og lignende.
Bekæmper AI med AI
Lidt simpelt forklaret går Googles plan ud på at bruge kunstig intelligens til at bekæmpe kunstig intelligens.
I takt med, at kunstig intelligens udvikler sig med lynets hast, er der nemlig også sket en eksplosion i svindelforsøg, fordi det er blevet nemmere for de kriminelle at lave realistiske og troværdige svindelnumre ved at bruge sprogmodellerne fra kunstig intelligens.
Det har betydet en stigning i forsøg på, at franarre godtroende internetbrugere eller virksomheder deres – det som kaldes phishing – adgang til blandt andet Gmail. Her kan svindlerne ikke overraskende finde masser af data, som nemt og hurtigt kan omsættes til en givtig forretning.
Har fodret den med svindel
Googel har så valgt at bruge den stigning i antallet af svindelforsøg til at træne deres kunstige intelligens til at kunne identificere svindelforsøg ud fra sproget.
Planen er, at det skal kunne afsløre, om en afsender for eksempel skriver og staver ordentligt på det sprog, mailen er formuleret med.
Det skal så gøre Googles systemer i stand til at filtrere et utalt af svindel- og spammails fra, inden de overhovedet når modtageren.
Ifølge Forbes blokerer sprogmodellerne med kunstig intelligens allerede 20 procent mere spam i forhold til før i tiden, ligesom der også gennemgås 1000 procent mere brugerrapporteret Gmail-spam hver dag.
Samtidig er responstiden på spam- og phishing-angreb i Google Drev steget med 90 procent.