technologie

Kunstmatige intelligentie stevent af op spionage

Kunstmatige intelligentie stevent af op spionage

Kunstmatige intelligentie stevent af op spionage

Een nieuwe studie, uitgevoerd door een groep Britse onderzoekers, onthulde dat kunstmatige-intelligentiemodellen met zeer hoge nauwkeurigheid kunnen bepalen wat gebruikers in hun computers typen - zoals wachtwoorden - door te luisteren naar en het geluid van typen op het toetsenbord te analyseren.

De studie, die werd gepubliceerd tijdens het IEEE European (Institute of Electrical and Electronics Engineers) symposium over beveiliging en privacy, waarschuwde dat deze technologie een grote bedreiging vormt voor de veiligheid van gebruikers, omdat het gegevens kan stelen via de microfoons die in de elektronische apparaten zijn ingebouwd. apparaten die we de hele dag gebruiken.

Maar hoe werkt deze technologie? En wat zijn de te verwachten risico's? Hoe kan het worden verminderd?

De onderzoekers creëerden een kunstmatige-intelligentiemodel dat typgeluiden op het toetsenbord van de Apple MacBook Pro-computer kan herkennen, en na het trainen van dit model op toetsaanslagen die zijn opgenomen door een telefoon in de buurt, kan het bepalen welke toets wordt ingedrukt met een nauwkeurigheid tot wel 95%, %, alleen gebaseerd op het geluid van de toets die wordt ingedrukt.

De onderzoekers wezen erop dat bij het gebruik van de stemmen die door de computer zijn verzameld tijdens Zoom-gesprekken om het algoritme voor stemclassificatie te trainen, de voorspellingsnauwkeurigheid afnam tot 93%, wat een hoog en alarmerend percentage is, en wordt beschouwd als een record voor deze methode.

De onderzoekers verzamelden trainingsgegevens door 36 keer op 25 toetsen op het toetsenbord van de "MacBook Pro"-computer te drukken voor elke toets met verschillende vingers en met verschillende mate van druk, en vervolgens namen ze het geluid op dat voortkwam uit elke druk via een smartphone in de buurt van het toetsenbord. , of via een oproep Zoom wordt uitgevoerd op een computer.

Vervolgens produceerden ze golfvormen en spectrale beelden van de opnames die de duidelijke verschillen voor elke toets lieten zien en voerden ze gegevensverwerkingsstappen uit om de signalen te versterken die konden worden gebruikt om het geluid van de toetsen te bepalen.

Nadat ze het model op deze gegevens hadden getest, ontdekten ze dat het de juiste sleutel kon identificeren uit smartphone-opnamen in 95%, zoom-oproepopnamen in 93% en Skype-oproepopnamen in 91.7%, wat lager maar nog steeds erg hoog is, en zorgwekkend.

De onderzoekers zeggen dat met het toenemende gebruik van tools voor videoconferenties zoals: Zoom, de verspreiding van apparaten met overal ingebouwde microfoons en de snelle ontwikkeling van kunstmatige-intelligentietechnologieën, deze aanvallen een grote hoeveelheid gebruikersgegevens kunnen verzamelen, zoals wachtwoorden. , discussies en berichten zijn gemakkelijk toegankelijk en andere gevoelige informatie.

In tegenstelling tot andere zijkanaalaanvallen die speciale voorwaarden vereisen en onderworpen zijn aan beperkingen op het gebied van datasnelheid en afstand, zijn aanvallen met spraak veel eenvoudiger geworden door de overvloed aan apparaten die microfoons hebben en audio-opnamen van hoge kwaliteit kunnen maken, vooral met de snelle ontwikkeling van machinaal leren.

Dit is zeker niet het eerste onderzoek naar op stem gebaseerde cyberaanvallen, aangezien er veel onderzoeken zijn die hebben aangetoond hoe kwetsbaarheden in de microfoons van slimme apparaten en stemassistenten, zoals: Alexa, Siri en (Google Assistant) Google Assistant, kunnen worden uitgebuit bij cyberaanvallen. Maar het echte gevaar hier is hoe nauwkeurig de AI-modellen zijn.

De onderzoekers zeggen dat ze in hun studie de meest geavanceerde methoden en kunstmatige-intelligentiemodellen hebben gebruikt en tot nu toe de hoogste nauwkeurigheid hebben bereikt, en dat deze aanvallen en modellen in de loop van de tijd nauwkeuriger zullen worden.

Dr. Ihsan Tureni, die betrokken was bij de studie aan de Universiteit van Surrey, zei: "Deze aanvallen en modellen zullen in de loop van de tijd nauwkeuriger worden, en naarmate slimme apparaten met microfoons vaker in huizen voorkomen, is er dringend behoefte aan openbare discussies." over het organiseren van aanvallen. kunstmatige intelligentie".

De onderzoekers adviseerden gebruikers, die zich zorgen maken over deze aanvallen, om het schrijfpatroon van het wachtwoord te wijzigen, zoals: de shift-toets gebruiken om een ​​combinatie van hoofdletters en kleine letters met cijfers en symbolen te maken om te voorkomen dat ze het hele wachtwoord kennen.

Ze raden ook aan om biometrische authenticatie of apps voor wachtwoordbeheer te gebruiken, zodat het niet nodig is om handmatig gevoelige informatie in te voeren.

Andere mogelijke verdedigingsmaatregelen zijn onder meer het gebruik van software om het geluid van toetsaanslagen te reproduceren, of witte ruis om het geluid van toetsenbordknoppen die worden ingedrukt te vervormen.

Naast de door de onderzoekers voorgestelde mechanismen; Een woordvoerder van Zoom plaatste een opmerking over dit onderzoek op BleepingComputer en adviseerde gebruikers om de functie voor achtergrondgeluidisolatie in de Zoom-app handmatig aan te passen om de intensiteit ervan te verminderen, de microfoon standaard te dempen wanneer ze deelnemen aan een vergadering en de microfoon te dempen tijdens het typen tijdens een vergadering om helpen bij het beveiligen en beschermen van hun informatie dergelijke aanvallen.

Maguy Farah's horoscoopvoorspellingen voor het jaar 2023

Ryan Sheikh Mohammed

Plaatsvervangend hoofdredacteur en afdelingshoofd Relaties, Bachelor Civiele Techniek - Afdeling Topografie - Tishreen University Getraind in zelfontwikkeling

Gerelateerde artikelen

Ga naar de bovenste knop
Schrijf je nu gratis in bij Ana Salwa U ontvangt eerst ons nieuws en we sturen u een melding van elke nieuwe Geen نعم
Social Media Auto Publish Aangedreven door : XYZScripts.com