Facebook vertelde afgelopen week dat het bedrijf 470 frauduleuze Facebook-accounts heeft ontdekt van een Russische 'troll farm' die 3300 Facebook-advertenties heeft ingekocht tijdens de verkiezingscampagne in de VS vorig jaar. Facebook vond nog eens 2200 advertenties die in Amerika zelf waren gekocht, maar de gebruikerstaal van de gekoppelde accounts was Russisch.
Boodschappen versterken
Daarmee bereik je tussen de 23 en 70 miljoen gebruikers en het duurde een jaar na de plaatsing van de advertenties dat ze door troll farms waren ingezet. Facebook weigerde te delen waar de advertenties over gingen, omdat die onthulling zijn privacyregels zou schenden - ook al gaat het om nepaccounts en Facebook dus de privacy beschermt van gebruikers die niet bestaan.
De advertenties waren er volgens Facebook op gericht om "polariserende sociale en politieke boodschappen uit het hele ideologische spectrum te versterken".
De organisatie die de advertenties plaatste is de Internet Research Agency. De New York Times publiceerde twee jaar geleden een profiel van dit Russische bedrijf dat 'de kunst van trolgedrag heeft geprofessionaliseerd'. De organisatie betaalt loon op trolprestaties en geeft zelfs cursussen Engelse grammatica, zodat Amerikanen denken dat het opruiende bericht van een landgenoot komt.
Sturen van online gesprekken
Het bedrijf heet inmiddels Glavset en zou een zusterbedrijf hebben opgezet met de naam Federal News Agency. Dat bedrijf zou verantwoordelijk zijn voor 16 propagandistische nieuwssites en meer dan 200 fulltime redacteuren en journalisten in dienst hebben. Deze trolfabriek is, los van alle verhalen over de banden met overheden, een commercieel privébedrijf van zakenman Evgeny Prigozhin. Zijn product is desinformatie as-a-service.
Samen met beveiligingsbedrijf FireEye deed de New York Times onderzoek en publiceerde vorige week een artikel waaruit blijkt dat Russische bots, gebruikers of organisaties honderdduizenden nep-Amerikanen hebben gemaakt. Deze nepgebruikers sturen online gesprekken over de verkiezing. Veel van deze nepaccounts plaatsen "identieke berichten slechts seconden van elkaar verwijderd en in de exacte alfabetische volgorde van hun verzonnen namen".
Computational propaganda
De universiteit van Oxford doet al enkele jaren onderzoek naar 'computational propaganda'. Dat gaat in het kort om het gebruik van botnets, algoritmes, big data, AI en andere automatisering om publieke opinie op het web te beïnvloeden. Desinformatiecampagnes met deze vorm van high-tech propaganda doken wereldwijd op in 2010, maar zijn mainstream gegaan tijdens de Clinton-Trump-verkiezing.
"Het overkoepelende doel van de desinformatie is om te verwarren en het vertrouwen in informatiebronnen in het geheel uit te hollen", zegt onderzoeker Kate Starbird van de universiteit van Washington.
Vertrouwen verdwijnt
De hoofddoelwitten tot nu toe zijn overheden en media. De tactiek van nepnieuwsproducenten is om consequent echt nieuws als nepnieuws te bestempelen. Het doel daarvan is om zoveel chaos te verwarren dat zoveel mogelijk mensen het maar opgeven en geen enkele bron meer vertrouwen omdat er zoveel nepnieuws is. Dat zorgt ervoor dat politici niet meer verantwoordelijk kunnen worden gehouden door de pers en verslechtert het publieke vertrouwen in democratische instituties.
De huidige computerversterkte desinformatie die we zagen vanuit Rusland en andere partijen is behoorlijk ruw en de moeite die ze nemen om te verhullen wat ze aan het doen zijn is beperkt. De toekomst van desinformatie is veel geavanceerder en moeilijker te herkennen.
Iedereen alles laten zeggen
Een voorbeeld is het gebruik van multimedia, met AI en GCI kan overtuigende video en audio worden gemaakt waardoor iedereen alles in de mond kan worden gelegd. De universiteit van Washington had een project waarin AI toenmalige president Obama dingen liet zeggen die hij niet had gezegd.
Tegelijkertijd werkte Stanford aan een project met de naam Face2Face. Hiermee werd realtime nepvideo gemaakt, zodat de techniek om mensen alles te laten zeggen realtime is te gebruiken in videofeeds of videochats. Beide technieken zijn niet perfect en nog we te herkennen als nep. Maar die technologie wordt ongetwijfeld beter de komende jaren.
Echte journalisten, nepbronnen
Een Canadese startup met de naam Lyrebird heeft een technologie gedemonstreerd waarin overtuigend nepstemmen worden toegevoegd aan beroemdheden die daarmee alles kunnen zeggen wat de maker maar wil en Adobe heeft iets soortgelijks gemaakt. Met deze twee kunnen ook realtime aanpassingen worden gedaan, zodat echte journalisten voor de gek worden gehouden met nepbronnen.
Het kan ook worden gebruikt voor CEO fraude, ook wel whaling genoemd. Daarbij doet een oplichter zich voor als een belangrijk persoon in een organisatie om bijvoorbeeld het secretariaat ervan te overtuigen bijvoorbeeld gevoelige gegevens te verstrekken of geld over te maken. Dat gaat nu vooral met nepmailtjes, maar in de zeer nabije toekomst bellen snoodaards op en gebruiken ze de stem van de bewuste CEO.
Massaal beïnvloeden van individuen
Een ander verontrustend beeld van de toekomst van desinformatie is Cambridge Analytica, die een rol heeft gespeeld in het verkiezen van Donald Trump. Het bedrijf maakt psychologische profielen aan van social media-gebruikers en voert ze op maat gemaakte informatie die hun specifieke angsten en ambities aanspreekt. In de toekomst kunnen politieke advertenties worden gericht op alle afzonderlijke kiezers, de publieke opinie als geheel worden beïnvloed - en dat allemaal onder de radar en zonder dat erop wordt gewezen.
Computerworld draait om IT en die afkorting staat natuurlijk voor van alles, maar letterlijk staat het voor Information Technology. Dus het is logisch dat er wordt gewerkt aan oplossingen om IT niet te laten vervallen in Disinformation Technology.
Data-integriteit belangrijker
Technologie in bedrijven draait om beheren, beschermen, opslaan, verwerken, gebruiken, delen en op alle mogelijke manieren voordeel behalen uit data die feitelijk en waar hoort te zijn. Dat vertrouwen in digitale gegevens onder druk door gebruikersfouten, malafide hackers, rampen en andere incidenten. Beveiliging is van levensbelang, omdat concurrenten en criminelen geld proberen te verdienen door informatie te stelen of gijzelen.
Het ligt voor de hand dat de focus van IT-security steeds meer verschuift van het beschermen van informatie tot het beschermen van informatie zodat er garantie is dat het waar is. Laat ik dat even illustreren met een aantal duistere scenario's.
Vervalsen oorspronkelijke data
Een van de gebieden die honderden miljarden euro's per jaar kost is het stelen van intellectueel eigendom. Bedrijfsspionnen stelen informatie omdat concurrenten achterlopen en de partijen ervoor willen zorgen dat het spel gelijk wordt. Maar wat als ze een stapje verder gaan en intellectueel eigendom van de oorspronkelijke eigenaar wordt vervalst?
Wat als ze bewijs kunnen vervalsen dat laat zien dat een bedrijf criminele activiteiten ontplooit met een spoor van echt lijkende e-mailgesprekken die nooit zijn gevoerd of nepinformatie gebruiken om bestuurders en belangrijke functionarissen te chanteren? Wat als ze valse informatie verspreiden bij investeerders, zodat de geldtoevoer opdroogt en er niet verder gebouwd kan worden aan een innovatief product?
Daarnaast zorgt desinformatie voor een nieuwe vorm van censuur: in plaats van het wegdrukken van een bepaalde boodschap door bronnen te censureren, worden we overvoerd met ruis waardoor het signaal verloren gaat. In plaats van de Koude Oorlog-tactiek waarin de Sovjet-Unie burgers ervan te probeerde te overtuigen met strakke censuur dat het goed gaat met het land, draaien we het nu om: het gaat slecht met een land en we gebruiken computational propaganda om die bewering te demonstreren.
Bedrijven algoritmisch afbranden
Dat kun je ook gebruiken voor marketingdoeleinden - en black hat-marketeers zullen zich hier zonder twijfel op gaan richten. Stel je voor dat een bedrijf wil laten zien dat zijn nieuwe smartphone superieur is aan de iPhone. In plaats van simpelweg afgeven op de iPhone, wordt computational propaganda gebruikt om Apple wereldwijd af te branden als slecht bedrijf.
Met analytics van Facebook kunnen ze elke potentiële iPhone-koper targeten en een psychologisch profiel van ze opbouwen. Daarna kunnen ze deze individuen overspoelen met feeds van nepgebruikers over iets als Apple's slechte milieubeleid aan de groene gebruiker en hoge reparatiekosten aan de zuinige gebruiker - om de hoofdzorg van specifieke gebruikers aan te spreken.
Dit is het begin
Ze zouden gegevens kunnen vervalsen over de betrouwbaarheid en slechte benchmarks van de iPhone, stukken maken over aanvallen tegen gebruikers en nepvideo's maken waarin de wantoestanden van Apple-bestuursleden richting het personeel worden aangetoond. Met AI wordt dat geperfectioneerd, en onzichtbaar en achter de schermen afgeleverd bij specifieke gebruikers.
De DaaS-technieken zullen alleen maar beter en stiekemer worden. Het bedrijf dat Facebook-advertenties kocht in Rusland en het Britse analyticsbedrijf dat de verkiezingen beïnvloedde zijn geen extreme randgevallen: ze lopen voor op de anderen. Desinformatie wordt big business en zal big business op de korrel nemen.
Wat hier gebeurd is absilute niets nieuws. Jammer dat 'Zucky' niet even verder weet na te denken en geen opening van zaken geeft hierin, hij profileert zichzelf dan als medespeler i.p.v. individualist die alleen op eigen exclusiviteit uit is. Zijn gebrek aan opening is op zijn zachtst gezegd veelzeggend.
Er is hier niets nieuws onder de zon. Sinds de eerste chatsessies, met mschat, het keihard gillende telefoon modem, hele hoge telefoonrekeningen, PTT/KPN dik zakkenvullend, is er niets veranderd. Het enige wat hoogstens veranderd is de richting waarin 'desinformatie' word ingezet.
Immers, het hele internet staat bol van desinmformatie. Is het niet de hijgend hypende zzp-er, vol van zichzelf, zelfbevlekkend twitterend 'zo ff lekker knallen', of ,' vandaag weer lekker bezig bij mijn opdrachtgever...' Leeg, niets zeggend, oncontroleerbaar, who cares....?
De keutelsprong naar nieuw te ontginnen gebieden zoals het manipuleren van meningen in de samenleving is dan ook een zeer voorspelbare. Het valt gewoon onder het kopje desinformatie en anderen iets laten geloven wat er niet is. Dat is niets nieuws want de commercie deed dit al vele jaren geleden met plaatjes. Een aanlokkelijk uitziende dame die een sigaret rookte. Heerlijk, goed voor je, doe net als ik .... zalig. Alsof je bij elke teug je ogen dicht deed en die betreffende dame zag. Nog beter, er was geen weldenkende dame die zelf haar sigaretten destijds kocht. De mannen waren destijds daar veel te galant voor.
Dat universele principe is nu digitaal viraal gegaan. En weet je wat? Elke denkbare politicus doet hier aan mee en laat u en mij pretenderen dat er tijdens de verkiezingen 'iets' aan u of mij wordt beloofd waarvan de politicus gewoon zegt, maar ..... dat gaan we lekker niet doen. Als de buit binnen is, gaan we lekker onze eigen gang.
Lodewijk Asscher maakte daar de allergrootste leugen van.... 'U heeft ons het mandaat hiervoor gegeven....' U heeft het mandaat gekregen voor hetgeen u voor gaf en pretendeerde, maar niet wat u daarna anders aan het doen bent. We gaan inderdaad met Big Unreliable Data nog een hele spannende tijd tegemoet.
Helemaal mee eens. Het is alleen nog veel erger. Als je eenmaal een keuze hebt gemaakt op basis van nepnieuws, FUD of wat dan ook, kom je er soms ook maar moeilijk vanaf, door een verdor lock op hardware of software, door de hoge kosten die er mee gemoeid zijn.
Reageer
Preview