En bref
- Tutoriel SEO pratique pour distinguer les URL indexées en HTTP et HTTPS via Google et outils complémentaires.
- Requêtes Google rapides : site:example.com inurl:https pour HTTPS, site:example.com -inurl:https pour HTTP — utile en audit rapide mais pas exhaustif.
- Procédure recommandée : ajouter une propriété Domaine dans Search Console, exporter l’onglet Couverture, croiser avec sitemap et logs serveur.
- Outils pratiques : Screaming Frog, Outiref, analyse des logs, et vérification des redirections 301.
- Checklist de migration : redirections, mise à jour des liens internes, en-têtes HSTS, plan de surveillance et exports réguliers.
Comment utiliser l’opérateur site: pour récupérer URL indexées en HTTP et HTTPS
La commande site: reste une base rapide pour récupérer une liste d’URL indexées par Google, mais son comportement par défaut masque la distinction entre protocole HTTP et HTTPS. En pratique, on va compléter l’opérateur pour filtrer la présence de « https » dans l’URL affichée.
La syntaxe la plus utile en 2026 pour un contrôle rapide sur un domaine est la suivante : site:example.com inurl:https. Cette requête retourne les pages indexées dont l’URL contient explicitement « https ». Sur un site récemment migré, ce filtre met en évidence les pages déjà prises en compte par Google en version sécurisée.
Inversement, pour faire apparaître des pages toujours indexées en HTTP, il suffit d’exclure celles avec « https » : site:example.com -inurl:https. Ce deuxième filtre n’affirme pas formellement que l’URL est servie en HTTP côté serveur, il indique que Google affiche encore la forme sans « https » dans ses résultats. Cette nuance est importante quand la migration a généré des redirections 301 mais que l’indexation n’a pas basculé.
Limites et faux positifs
Google search est un échantillonneur. Les résultats de site: ne constituent pas un export exhaustif de l’index. Certaines pages seront absentes pour des raisons de filtrage, duplication ou quotas d’affichage.
Les pages listées via inurl:https peuvent inclure des liens externes ou des ressources qui contiennent « https » dans le chemin. Pour limiter les faux positifs, ajoute un espace après le domaine, par exemple site:example.com inurl: »https://example.com ». Cette variante réduit les correspondances parasites mais dépend du comportement d’affichage de Google, qui peut tronquer certaines URL dans les SERP.
Autre détail pratique : les sous-domaines apparaissent dans les résultats. Si la migration concerne uniquement le domaine racine, préciser site:example.com -site:blog.example.com aide à isoler le périmètre.
Exemples concrets
Sur un site marchand migré sur un hébergement mutualisé o2switch, le test suivant a permis d’identifier 120 pages encore affichées en HTTP : site:monshop.com -inurl:https. Le même domaine retournait 1 350 résultats avec inurl:https, donnant un aperçu rapide du progrès d’indexation.
Lors d’une migration foirée, la recherche peut aussi révéler des pages en HTTPS mais sans redirection 301 depuis la version HTTP. Dans ce cas, il faudra vérifier la configuration du serveur et la présence des balises canoniques.
La requête site:example.com filetype:pdf inurl:https permet de lister les PDF indexés en HTTPS, utile si le site publie des documents et que la migration n’a pas touché les URLs des ressources.
Conclusion courte et actionnable : utiliser site: + inurl: pour une inspection rapide, mais toujours compléter avec des méthodes exportables et vérifiables.
Vérifier l’indexation Google via Search Console : propriétés, exports et contrôles pratiques
Search Console reste l’outil de référence pour connaître l’état d’indexation Google de manière exportable et vérifiable. Selon la configuration, Google propose deux types de propriétés : la propriété Domaine (regroupe HTTP, HTTPS et sous-domaines) et les propriétés « URL-prefix » (séparées par protocole). Pour une migration HTTPS, ajouter une propriété Domaine permet d’avoir une vue consolidée.
Pour récupérer la liste des pages indexées en HTTPS via Search Console, ouvrir la propriété Domaine, puis aller dans Couverture. Dans l’onglet « Valides », Google liste les pages que le moteur considère comme indexées. L’interface propose un bouton « Exporter » en haut à droite. Le fichier CSV exporté contient l’URL et le statut; il faut ensuite filtrer sur la présence de « https:// » pour isoler les pages sécurisées.
La procédure inverse s’applique pour repérer les anciennes pages HTTP toujours indexées. Exporter l’onglet « Valides » et filtrer les URL sans « https:// ». Cela donne une liste exploitable pour prioriser les corrections.
Onglet Sitemaps et URL Inspection
Le menu Sitemaps permet de vérifier si le sitemap soumis contient des URL en HTTPS et d’exporter l’inventaire. Après migration, soumettre le sitemap mis à jour accélère le recrawl. L’outil URL Inspection donne la date de dernière exploration et l’état d’indexation pour une URL précise. Pour un lot d’URL, automatiser via l’export du sitemap et des rapports Coverage reste plus rapide.
Dans un cas pratique, lors d’une migration sur WordPress avec Rank Math, la propriété Domaine a montré que 90% des pages principales étaient indexées en HTTPS après deux semaines. Les 10% restantes figuraient dans l’onglet « Exclus », souvent à cause de balises noindex ou d’erreurs 404 provoquées par mauvais slugs.
Points de vigilance et erreurs fréquentes
Confirmer la propriété du domaine via DNS est indispensable avant d’interpréter les données. Sans vérification DNS, Search Console ne fournira pas la vue consolidée HTTP/HTTPS. Certains hébergeurs mutualisés limitent l’accès au fichier zone DNS, il faudra le faire via l’interface du registrar.
Exporter les données et comparer les colonnes « Dernière exploration » et « Type d’erreur » aide à prioriser. Par exemple, si une dizaine de pages montrent « Crawled – currently not indexed », il faudra vérifier contenu dupliqué et balises canoniques.
Action rapide recommandée : exporter la liste, filtrer sur https:// ou non, puis croiser avec le sitemap et le fichier robots.txt. Cette méthodologie transforme une vérification qualitative en une checklist chiffrée.
Insight final : Search Console livre une liste vérifiable et exportable — l’utiliser pour prioriser plutôt que se fier uniquement aux requêtes site:.
Outils complémentaires : crawler, logs serveur et Outiref pour récupérer la liste complète d’URL
Le recours aux crawlers et aux logs serveur complète la récupération des URL indexées par Google. Un crawler comme Screaming Frog permet d’extraire toutes les URL internes, d’analyser les redirections et de repérer les liens internes encore en HTTP. Screaming Frog exporte des CSV contenant le statut HTTP, l’en-tête « Location » pour les redirections et les balises canoniques.
Configurer Screaming Frog sur un site WordPress sous PHP 8.1 sur un hébergement o2switch est une pratique courante. Lancer un crawl complet, puis filtrer les résultats sur la colonne « Protocol » (ou rechercher « http:// ») met en lumière les pages qui servent encore des liens non mis à jour. Cette méthode identifie aussi les contenus bloqués par robots.txt, que Google peut ne pas indexer.
Analyse des logs serveur
Les logs serveur (access.log) donnent la preuve ultime de ce que Googlebot a réellement crawlé. Parser les logs avec un script awk ou un outil comme GoAccess indique les requêtes avec l’User-Agent Googlebot. Filtrer les lignes contenant « GET / » et « HTTP/1.1″ 200 » et rechercher « https » dans le champ référent permet de déterminer si Googlebot a indexé la version HTTPS ou la version HTTP.
Sur un site migré, comparer une semaine avant et une semaine après la mise en place des redirections 301 montre la bascule effective. Une bascule complète se voit dans les logs : Googlebot passe progressivement des URLs HTTP aux URLs HTTPS, puis cesse de solliciter l’ancien schéma.
Outiref et audits automatisés
L’outil Outiref propose des audits automatisés qui combinent crawl, analyse des redirections et vérification des sitemaps. Utiliser ce type d’outil donne un rapport synthétique exportable, pratique quand il faut partager des résultats avec un client ou une équipe technique.
Tableau comparatif : méthodes pour récupérer la liste des URLs
| Méthode | Exhaustivité | Export | Coût / Temps |
|---|---|---|---|
| Search Console (Couverture) | Elevée pour l’index Google | CSV exportable | Gratuit / 10–30 min |
| site: + inurl: | Rapide, non exhaustif | Pas d’export direct | Gratuit / 5–15 min |
| Crawler (Screaming Frog) | Très exhaustif côté site | CSV, XLSX | Licence payante possible / 30–120 min |
| Logs serveur | Preuve du crawl réel | Fichiers logs, parsing | Gratuit / 1–3 h |
Liste d’actions recommandées pour l’audit :
- Exporter l’onglet Couverture de Search Console et filtrer sur https://.
- Crawler le site avec Screaming Frog pour détecter les liens internes encore en HTTP.
- Parser les logs serveur pour valider la présence de Googlebot sur les URLs HTTPS.
- Utiliser un audit automatisé comme Outiref pour obtenir un rapport consolidé.
Insight final : combiner exports GSC, crawl et logs fournit la vision la plus fiable de l’indexation Google.
Bonnes pratiques SEO technique pendant la migration HTTP → HTTPS
La migration HTTP vers HTTPS ne se limite pas à activer un certificat. Il s’agit d’un ensemble d’actions techniques qui conditionnent l’indexation Google et le référencement naturel. Commencer par un inventaire : sitemap, liste des pages importantes, fichiers robots.txt et plugins WordPress impliqués (Rank Math, All-in-One SEO).
Mettre en place des redirections 301 de toutes les URLs HTTP vers les équivalents HTTPS est impératif. Sur un serveur Apache, les règles dans .htaccess doivent être testées sur un environnement de pré-prod pour éviter les boucles. Sur nginx, la redirection se fait au niveau de la configuration server_name avec un return 301.
Paramètres WordPress
Après activation du certificat, vérifier les réglages WordPress : les champs « Adresse web (URL) » et « Adresse du site (URL) » dans Réglages > Général doivent contenir https://. Mettre à jour wp-config.php avec les constantes si nécessaire et purger les caches. WP Rocket et d’autres plugins peuvent conserver des URLs en cache; vider tous les caches est une étape à exécuter immédiatement.
Les plugins SEO doivent refléter le changement. Si Rank Math ou All-in-One SEO gère les sitemaps, régénérer le sitemap et soumettre la nouvelle version à Search Console. Pour un guide pratique sur la stratégie SEO et plugins, consulter quelques bonnes pratiques sur les stratégies adaptées aux outils.
En-têtes et sécurité
Activer HSTS après une période de vérification garantit que les navigateurs utiliseront HTTPS par défaut. Configurer HSTS à un délai court d’abord (par exemple 1 jour) puis augmenter progressivement évite de se retrouver bloqué suite à une mauvaise configuration.
Vérifier le mixed content : les ressources (images, scripts, CSS) doivent être servies en HTTPS. Les erreurs de contenu mixte peuvent bloquer le chargement des éléments et nuire à l’expérience utilisateur et au Core Web Vitals.
Exemple terrain : un site marchand a perdu 40% de son taux de conversion après une migration bâclée où plusieurs images restaient en HTTP. La correction des URLs d’images et la purge du CDN ont rétabli le comportement attendu.
Insight final : une migration est un projet technique complet — redirections, mise à jour des réglages WordPress, purge des caches et vérification HSTS sont non négociables.
Processus d’audit et routine de suivi pour récupérer et surveiller la liste des URL indexées
Mettre en place une routine de suivi transforme un contrôle ponctuel en un mécanisme de surveillance continue. Le workflow recommandé combine exports, comparaisons et automatisations simples.
Étape 1 : exporter chaque semaine l’onglet « Valides » de Search Console en CSV. Garder un historique sur un drive et renommer les fichiers par date (ex. index-2026-05-01.csv).
Étape 2 : crawler le site chaque semaine avec Screaming Frog et exporter la liste d’URL avec statut HTTP. Comparer l’export du crawler avec l’export GSC pour repérer les écarts.
Méthode de comparaison
Importer les deux CSV dans un tableur et créer une colonne de correspondance. Utiliser une formule de recherche (VLOOKUP ou équivalent) pour marquer les URL présentes dans GSC mais absentes du crawl, et vice versa. Lorsque des URL apparaissent dans GSC sans version HTTPS, prioriser leur vérification côté serveur (redirections 301 manquantes ou erreurs 4xx).
Étape 3 : analyser les logs serveur toutes les semaines pour vérifier la fréquence de crawl de Googlebot sur les URLs HTTPS. Une baisse de crawl sur des pages stratégiques indique un problème de découverte ou des erreurs côté serveur.
Étape 4 : reporter les findings dans un document partagé. Prioriser les corrections : pages avec trafic > 100 visites/mois, pages transactions, pages informatives à fort référencement.
Indicateurs à suivre
- Taux d’URLs HTTPS indexées / total des URLs présentes dans le sitemap.
- Nombre de redirections 301 actives et leur temps de résolution.
- Erreurs 4xx/5xx remontées par Search Console.
- Durée moyenne d’exploration Googlebot (logs) pour les URLs critiques.
En complément, former l’équipe ou la personne en charge avec des ressources adaptées aide à maintenir la routine. Une formation ciblée sur WordPress et SEO est utile ; voir options de formation WordPress SEO proposées pour des cas pratiques.
Processus de sortie : planifier une revue à 30, 60 et 90 jours post-migration. À 90 jours, l’objectif est d’avoir >95% des URLs stratégiques indexées en HTTPS. Si ce palier n’est pas atteint, déclencher un audit technique complet, en s’appuyant sur un guide d’audit spécialisé comme cet article sur l’audit SEO pour WordPress.
Insight final : automatiser exports et comparaisons, prioriser selon trafic et valeur business, et revoir à 30/60/90 jours pour garantir la bascule d’indexation.
Comment distinguer rapidement les URL HTTPS des URL HTTP avec Google ?
Utiliser la requête site:tonsite.com inurl:https pour voir les pages indexées contenant ‘https’ et site:tonsite.com -inurl:https pour repérer celles affichées en HTTP. Compléter par un export depuis Search Console pour obtenir une liste vérifiable.
Search Console ou crawler : quel est le meilleur point de départ ?
Search Console fournit la réalité de l’index Google et un export direct. Un crawler comme Screaming Frog complète en fournissant la liste complète des pages visibles sur le site. Les deux combinés donnent une vision fiable.
Que faire si des pages restent indexées en HTTP malgré les redirections 301 ?
Vérifier les redirections côté serveur, les en-têtes, les balises canoniques et le sitemap. Inspecter les logs pour confirmer que Googlebot reçoit bien des 301 vers la version HTTPS. Corriger et forcer le recrawl via Search Console si nécessaire.
Peut-on automatiser le suivi des URL indexées ?
Oui. Planifier des exports Search Console hebdomadaires, lancer un crawl programmé et parser les logs. Centraliser les exports dans un tableur et utiliser des formules pour repérer les écarts. Les outils d’audit comme Outiref simplifient la consolidation.