Die robots.txt wird in WordPress dynamisch erzeugt. Die einfachste Möglichkeit diese anzupassen ist, eine statische robots.txt in das Root-Verzeichnis der WordPress-Installation anzulegen. Die andere, flexiblere Möglichkeit ist in der functions.php mit folgendem Filter zu arbeiten:
// robots.txt anpassen
function robots_mod( $output, $public )
{
if($public)
{
$output .= "Allow: /*.js$\n";
$output .= "Allow: /*.css$\n";
}
return $output;
}
add_filter('robots_txt', 'robots_mod', 10, 2);
Damit ist es möglich die Ausgabe der robots.txt mit einer eigenen Logik zu verknüpfen:
// robots.txt anpassen
function robots_mod( $output, $public )
{
if($_SERVER['HTTP_HOST']=='hide-from-search-engines.com') $output = "Disallow: /\n";
return $output;
}
add_filter('robots_txt', 'robots_mod', 10, 2);
Performance-Tipp: Die robots.txt
wird von Suchmaschinen zum Teil sehr oft aufgerufen. Falls das verwendete Caching-Plugin die robots.txt
nicht abdeckt und man keine dynamische Anpassung benötigt, bietet es sich an die robots.txt
als statische Text-Datei im Webroot-Verzeichs zu hinterlegen.