
Bij cloaking wordt de inhoud van een website op een andere manier getoond aan een zoekmachine dan aan een 'normale' bezoeker.
Wanneer een zoekmachine-spider herkend wordt, dan zorgt een script (bvb. robot.txt) ervoor dat de getoonde inhoud afwijkt van de pagina, die normaal zichtbaar is. Bezoekers zien dus een gewone webpagina, maar de zoekmachines zien een geoptimaliseerde pagina met links en zoekwoorden.
Door cloaking tonen zoekmachines pagina's die niet beantwoorden aan de zoekcriteria. De gebruiker kan zo ongevraagd terechtkomen op websites met spam of malware of op websites met ongepaste inhoud.
Cloaking is in strijd is met de richtlijnen van zoekmachines en wordt gezien als misleiding.
Dit levert uiteindelijk een penalty op.
Cloaking kan ook functioneel zijn. Door middel van cloaking kan een website zoekmachines informeren over de aanwezigheid van content die niet door de zoekmachine geïdentificeerd wordt (zoals afbeeldingen, video, JavaScript, Flash, …). Maar er zijn hiervoor vandaag betere manieren.