Drones en zelfrijdende auto's als wapens: waarom moeten we bang zijn voor hackers
Drones en zelfrijdende auto's als wapens: waarom moeten we bang zijn voor hackers
Anonim

Als kunstmatige intelligentie in verkeerde handen valt, kan de beschaafde wereld in chaos storten.

Drones en zelfrijdende auto's als wapens: waarom moeten we bang zijn voor hackers
Drones en zelfrijdende auto's als wapens: waarom moeten we bang zijn voor hackers

Niemand zal ontkennen dat kunstmatige intelligentie ons leven naar een hoger niveau kan tillen. AI is in staat om veel problemen op te lossen die buiten de macht van mensen liggen.

Velen geloven echter dat de superintelligentie ons zeker zal willen vernietigen, zoals SkyNet, of zal beginnen met het uitvoeren van experimenten op mensen, zoals GLADoS uit de Portal-game. De ironie is dat alleen mensen kunstmatige intelligentie goed of slecht kunnen maken.

Waarom kunstmatige intelligentie een serieuze bedreiging kan zijn
Waarom kunstmatige intelligentie een serieuze bedreiging kan zijn

Onderzoekers van Yale University, Oxford, Cambridge en OpenAI hebben een rapport gepubliceerd over misbruik van kunstmatige intelligentie. Het zegt dat het echte gevaar van hackers komt. Met behulp van kwaadaardige code kunnen ze de werking van geautomatiseerde systemen onder controle van AI verstoren.

Onderzoekers vrezen dat goedbedoelde technologieën worden geschaad. Bewakingsapparatuur kan bijvoorbeeld niet alleen worden gebruikt om terroristen te vangen, maar ook om gewone burgers te bespioneren. Onderzoekers maken zich ook zorgen over commerciële drones die voedsel bezorgen. Het is gemakkelijk om ze te onderscheppen en iets explosiefs te planten.

Een ander scenario voor het destructieve gebruik van AI zijn zelfrijdende auto's. Het is voldoende om een paar regels code te wijzigen en machines zullen de veiligheidsregels gaan negeren.

Waarom kunstmatige intelligentie een serieuze bedreiging kan zijn
Waarom kunstmatige intelligentie een serieuze bedreiging kan zijn

Wetenschappers geloven dat de dreiging digitaal, fysiek en politiek kan zijn.

  • Kunstmatige intelligentie wordt al gebruikt om de kwetsbaarheden van verschillende softwarecodes te bestuderen. In de toekomst kunnen hackers een bot maken die elke bescherming omzeilt.
  • Met behulp van AI kan een mens veel processen automatiseren: bijvoorbeeld een zwerm drones of een groep auto's besturen.
  • Met behulp van technologieën zoals DeepFake is het mogelijk om het politieke leven van de staat te beïnvloeden door valse informatie over wereldleiders te verspreiden met behulp van bots op internet.

Deze angstaanjagende voorbeelden bestaan tot nu toe alleen als een hypothese. De auteurs van de studie suggereren geen volledige afwijzing van technologie. In plaats daarvan vinden ze dat nationale overheden en grote bedrijven moeten zorgen voor veiligheid terwijl de AI-industrie nog in de kinderschoenen staat.

Beleidsmakers moeten technologie bestuderen en samenwerken met experts in het veld om de creatie en het gebruik van kunstmatige intelligentie effectief te reguleren.

Ontwikkelaars moeten op hun beurt het gevaar van geavanceerde technologie inschatten, anticiperen op de ergste gevolgen en wereldleiders daarvoor waarschuwen. Het rapport roept AI-ontwikkelaars op om samen te werken met beveiligingsexperts op andere gebieden en te kijken of de principes die de beveiliging van deze technologieën waarborgen, kunnen worden gebruikt om kunstmatige intelligentie te beschermen.

Het volledige rapport beschrijft het probleem in meer detail, maar het komt erop neer dat AI een krachtig hulpmiddel is. Alle geïnteresseerde partijen moeten de nieuwe technologie bestuderen en ervoor zorgen dat deze niet voor criminele doeleinden wordt gebruikt.

Aanbevolen: