Een sales funnel is een marketingconcept waarin uitgelegd word dat je kleine “hindernissen” op het pad van potentiële klanten moet gooien, om snel de mensen te elimineren die alleen nieuwsgierig zijn maar het product niet echt gaan kopen. Hierdoor hoef je dus geen aandacht te geven aan mensen die toch niets willen kopen en kun je je inspanningen richten op de mensen in je funnel die steeds verder geinteresseerd raken in jouw product.
De trechter begint meestal met bekendheid of interesse en eindigt met een loyale klant.
Complottheorieën zoals QAnon en Pizzagate hebben hun eigen soort Funnel. De QAnon-verkooptrechter is het duidelijkst in zijn passieve wervingsmethoden, zoals video’s en websites. Een heel ander proces dan het “Red Pilling”. Red Pilling een actieve, interpersoonlijke wervingstechniek.
De salesfunnel van QAnon’s passieve rekrutering heeft zijn eigen unieke hindernissen: Zelfselectie en Tolerantie voor onzin.
Zelfselectie vormt de kern van het ‘Doe je eigen onderzoek’-mantra van complottheorieën en het verklaart waarom sommigen Google liever mijden (en waarom ze vinden dat jij dat ook moet doen). Als een complotgelovige iets zegt over hoe Tony Podesta een pedofiel is, kun je om wat bewijs vragen. Vaker dan niet hoor je dan iets als: “Geloof me niet op mijn woord, onderzoek het zelf: zoek gewoon naar ‘Podesta-kunst’ op Duck Duck Go.” Het doel is om je nieuwsgierig en dus ontvankelijk te maken en je in die trechter te gooien.
Dit is het eerste beslispunt: ben je nieuwsgierig genoeg om naar de zoekmachine te gaan? De Nederlandse complottheorist is nog niet zo heel bekend met Duck Duck Go en zal je alsnog gewoon Google aanraden.
Als je dapper genoeg bent, gefeliciteerd, zit je in de trechter, althans voorlopig.
drie jaar geleden zou het zoeken naar ‘Podesta-art’ op Google goed genoeg zijn geweest: je zou worden overspoeld met pro-samenzweringsresultaten, want vóór Pizzagate zocht niemand ooit naar ‘Podesta-art’ en dus speelden complotgelovigen het algoritme om alleen hits te produceren die de theorie ondersteunden. Google is nu slimmer en filtert deze resultaten eruit, dus als iemand je zegt Duck Duck Go te gebruiken, weet je nu waarom.
Ben je nu op Duck Duck Go aan het zoeken? De resultaten stromen binnen je kijkt naar afbeeldingen, resultaten van blogs, YouTube-links, stukken op Medium, artikelen van NeonRevolt en meer. De linktitels variëren van “The Pizzagate Evidence You’ll Never See” tot “Anderson Cooper’s Satanic Slaughterhouse” tot “Tony Podesta and His Owned Artworks“.
Dit is het volgende deel van de funnel: Ben je nog nieuwsgierig genoeg om iets uit te kiezen en te lezen? Dan zit je nog verder in de funnel.
Je ziet jezelf als een redelijk persoon en denkt: “Nou, ik ga zeker niet verstrikt raken in complottheorieën”, dus klik je op de meer rationeel klinkende Tony Podesta and His Owned Artworks-link. Jammer! Die alledaagse titel leidt je nog steeds naar pizzapartyshutdown(punt)com. Zonder dat je het wilde, heb je een informatiebron gekozen die het beste bij je eigen leerstijl past, omdat je brein je voor de gek hield.
Het spreekt voor zich dat veel mensen niet in de trechter zullen blijven. Maar voor degenen die dat wel doen, vergroot de handeling van het maken van hun eigen keuzes de betrokkenheid. Zelfselectie werkt, want als je deze keuzes zelf maakt, vergroot je je eigen persoonlijke investering in de resultaten van de keuzes. En als die investering je ertoe aanzet meer te willen leren, ga je nog dieper en stuit je op de tweede hindernis: de grenzen van je eigen tolerantie voor onzin.
Tolerantie voor onzin
Tolerantie voor onzin is een andere belangrijke factor die mensen uit de funnel verwijdert en alleen de makkelijkst te overtuigen slachtoffers binnen te houden. Een mens test de tolerantie voor onzin wanneer je op een video van twee uur hebt geklikt, maar ook als je een blog bezoekt, een artikel leest of “bewijs” tegenkomt. Als je een lage tolerantie voor onzin hebt, dan raak je snel geïrriteerd door wat je leest op ziet. Je klikt weg en en zal niet snel nog meer gaan kijken. Je zult je ongetwijfeld af vragen waarom je in hemelsnaam op die link hebt geklikt. Heb je echter een hoge tolerantie voor onzin, dan kijk je de video af en ga je vaak nog op zoek naar meer.
Het is belangrijk om te weten dat het dus niets te maken heeft met slim of dom zijn. En aannemen dat mensen die vast komen te zitten in de trechter dom zijn, is niet juist en ook gevaarlijk. Waar tolerantie voor onzin echt om draait, is of je jezelf hebt blootgesteld aan een kritische theorie of literaire analyse, of dat je een overtuigend argument in realtime mentaal kunt deconstrueren. De reden dat veel opgeleide “slimme” mensen in complottheorieën zijn gaan geloven komt simpelweg omdat ze dachten dat ze een leugen gewoon zouden herkennen als ze die hoorden, zonder dat ze moesten stoppen om echt na te denken over wat er zojuist was gezegd. Kijk bijvoorbeeld eens naar het hele multilevel marketing concept. Of naar andere sekten over de hele wereld. De wegen daarnaartoe zijn bezaaid met slimme en goed opgeleide mensen.
Dan Olsen zei hierover:
“Een van de veelbesproken elementen van dit soort groepen is de manier waarop factchecking vaak als een soort filter wordt gebruikt. Dus als je gaat zitten om naar Ossebaard’s Fall of the Cabal te kijken en je bent het soort persoon dat geneigd is feiten te controleren, en nieuwsgierig is naar de wereld en geïnteresseerd is in analyseren dan kom je waarschijnlijk niet ver. Deze video’s komen zo snel komt met suggesties en aantijgingen die ervoor zorgen dat je pauzeert en direct al wilt gaan zoeken over waarom alles in die video fout is.”
Heb je een hoge tolerantie voor onzin, dan zal een video als Fall of the Cabal gewoon over je heen spoelen en zo snel en met zoveel vertrouwen op je afkomem met zoveel dubieuze claims dat ze overtuigend beginnen te lijken. Als je daarna de claims niet gaat uitzoeken, loopt je het risico deze passief te accepteren en hoe langer je naar de video kijkt, hoe langer je in de trechter blijft en steeds naar beneden reist.
Het doel van “zelf onderzoek doen”
Het uiteindelijke doel van de sales funnel is om iedereen die niet bereid is in de complottheorie te geloven er zo snel mogelijk uit te gooien. Daardoor blijven alleen de toegewijde “rekruten” over. Degenen die helemaal het einde van de funnel bereiken, komen daar doordat ze elke kans die alle mogelijkheden om te ontsnappen niet zagen. Of misschien wilden ze het niet zien. Ze accepteren wat hen is verteld en ze zijn volledig bereid om te geloven wat QAnon/moederhart/viruswaarheid hen daarna vertelt. Een groot deel daarvan is natuurlijk dat het makkelijker is om een soort duister plot te accepteren, dan dat dingen gewoon gebeuren.
Als je hierin zit en je glijd steeds verder naar beneden dan is er ook nog de “sunk Cost” fallacy. Dit is een cognitieve denkfout die stelt dat iemand al die al zo lang aan het graven en “onderzoeken is”, dat het wel iets MOET betekenen. Het is dan dus makkelijker om bijvoorbeeld misgelopen voorspellingen (Zoals Trump wordt in maart toch president) af te doen als een miscalculatie. Zie bijvoorbeeld ook de Apocalyps-mensen. Hoeveel keer is ons gruwelijke einde al voorspeld? En telkens was het door een foutje niet goed voorspeld. Oeps! Er was een cijfertje omgedraaid. Deze cyclus van steeds maar goedpraten wat niet is gebeurt betekent dat het onwaarschijnlijk is dat ze de complottheorie of sekte verlaten. En als ze dat al doen, niet zonder een reëel gevoel van verraad en verwarring.
Dit is de reden waarom mensen die zich weten los te trekken van QAnon of een ander groepje zich vaak getraumatiseerd en verbijsterd voelen. De verhalen die ze vertellen, doen sterk denken aan mensen die zijn gegrepen door langdurige oplichters, multi-level marketingpiramides. QAnon is echter veel erger, omdat het de hele perceptie van de wereld van een gelovige om gooit. Het is een digitale sekte.