Google Groups no longer supports new Usenet posts or subscriptions. Historical content remains viewable.
Dismiss

Re: Tester tous les liens sur un site

0 views
Skip to first unread message
Message has been deleted

SAM

unread,
Sep 7, 2009, 12:28:28 PM9/7/09
to
Le 9/7/09 5:47 PM, Yamo' a ï¿œcrit :
> Bonjour,
>
> J'avais lu quelque part qu'on pouvais utiliser httrack pour uniquement
> rechercher les liens brisï¿œs sur un site mais je ne trouve pas l'option,
> j'utilise soit winhttrack soit httrack en ligne de commande sur linux.
>
> Est ce quelqu'un peut me donner cette option? Je prᅵcise que j'ai dᅵjᅵ
> tapᅵ man httrack et cherchᅵ sur google ;)
>
> Le W3C a un outil de ce genre mais il faut que le site soit sur internet
> et le faire pour chaque page!
>
> La cerise sur le gï¿œteau serait de lister aussi tous les liens externes.

au siï¿œcle dernier j'utilisais ï¿œa :
<http://www.xlanguage.com/products/rename.htm>
mais je vois qu'il n'y a rien de nouveau depuis (15/04/2002)
(c'est ᅵ l'essai 15 jours, ᅵa ne mange pas de pain d'essayer si on est
sous Windows, pour Mac ils n'ont pas franchi le pas Mac OS X)

--
sm

Patrick Texier

unread,
Sep 8, 2009, 12:54:04 AM9/8/09
to
Le Mon, 07 Sep 2009 18:28:28 +0200, SAM a �crit�:

> > La cerise sur le g�teau serait de lister aussi tous les liens externes.

> au si�cle dernier j'utilisais �a :


> <http://www.xlanguage.com/products/rename.htm>
> mais je vois qu'il n'y a rien de nouveau depuis (15/04/2002)

> (c'est � l'essai 15 jours, �a ne mange pas de pain d'essayer si on est

> sous Windows, pour Mac ils n'ont pas franchi le pas Mac OS X)

Il y a l'utilitaire texte Unix wget (il existe sous Windows). Son
utilit� c'est d'aspirer des sites avec des reprises sur erreurs mais le
param�tre --spider permet de ne pas les t�l�charger.

--
Patrick Texier

vim:syntax=mail:ai:ts=4:et:tw=72

Michael DENIS

unread,
Sep 8, 2009, 5:41:24 AM9/8/09
to
Yamo' a ï¿œcrit :

> J'avais lu quelque part qu'on pouvais utiliser httrack pour uniquement
> rechercher les liens brisï¿œs sur un site mais je ne trouve pas l'option,
> j'utilise soit winhttrack soit httrack en ligne de commande sur linux.

Pour ma part, j'utilisais linckchecker :

http://linkchecker.sourceforge.net/

Il a visiblement pas mal ᅵvoluᅵ depuis ma derniᅵre utilisation, mais il
ne peut sans qu'ï¿œtre mieux. :-)

Par contre, il lui manque une fonction que je n'ai pas retrouvï¿œe
depuis... Hotmetal, c'est la dï¿œtection des fichiers orphelins. Si
quelqu'un a une piste...

--
Michaï¿œl DENIS

Message has been deleted
Message has been deleted
Message has been deleted

Michael DENIS

unread,
Sep 8, 2009, 10:04:39 AM9/8/09
to
Yamo' a ï¿œcrit :
> Le seul dï¿œfaut c'est que je n'ai pas vu comment exporter la liste des
> rï¿œsultats sous forme d'un fichier texte ou csv.

D'aprï¿œs l'aide (linkchecker -h), c'est avec l'option "-F". Sous Windows,
ï¿œa doit ï¿œtre quelque chose comme :

linkchecker -F text/chemin_vers_mon_fichier
ou
linkchecker -F csv/chemin_vers_mon_fichier

> Et il ne comprend pas les url avec des caractï¿œres cyrilliques.

Ne serait-ce pas un problï¿œme d'encodage, du mï¿œme genre que "%20" et non
" " ?

--
Michaï¿œl DENIS

Message has been deleted

Michael DENIS

unread,
Sep 8, 2009, 10:32:05 AM9/8/09
to
Yamo' a ï¿œcrit :
> Oui c'est un problï¿œme d'encodage mais, sur tous les navigateurs sur
> lesquels j'avais testᅵ il n'ᅵtait pas prᅵsent.

La plupart des navigateurs permette un certain laxisme dans les url. Si
nous prenons le cas de "%20", il faut remarquer que :

-si un espace est envoyᅵ, le navigateur l'acceptera (je pense) ᅵ tous
les coups. Ce n'est pas pour autant que cela rï¿œpond aux normes en vigueur.

-si "%20" est envoyᅵ, le navigateur affichera tout de mᅵme un espace, ce
qui est normal. Mais dans ce cas, on est "conforme".

Il faut bien diffᅵrencier ce qui est envoyᅵ de ce qui est affichᅵ, ce
qui fonctionne et ce qui est conforme. :-)

--
Michaï¿œl DENIS

SAM

unread,
Sep 11, 2009, 10:04:14 AM9/11/09
to
Le 9/8/09 3:12 PM, Yamo' a ï¿œcrit :
> Le 08/09/2009 15:08, Yamo' a ï¿œcrit:

>> Le seul dï¿œfaut c'est que je n'ai pas vu comment exporter la liste des
>> rï¿œsultats sous forme d'un fichier texte ou csv.
>
> Et il ne comprend pas les url avec des caractï¿œres cyrilliques.

En attendant ce serait bien que la console reste fixe pendant qu'on
scrolle pour lire les exemples, en particulier dï¿œs la leï¿œon 7.

--
sm

0 new messages