Mark Zuckerberg nu : la photo qui fait scandale



Le fondateur de Facebook, Mark Zuckerberg, n’en finit pas de défrayer la chronique. Une photo de l’homme, torse nu, fait actuellement le tour de la toile et secoue un peu plus le puritanisme américain.
Une seule photo aura suffi à créer un petit scandale outre-Atlantique. On y voit Mark Zuckerberg, le torse nu, entouré d’autres hommes guère plus habillés. Les premières interrogations se portent sur la manière dont cette photo, qui a été trouvée sur le site d’hébergement d’images imgur, a pu sortir du cercle d’amis du développeur. Selon l’utilisateur à l’origine de la fuite, elle aurait été postée « accidentellement » sur Facebook par Andrew Bosworth, ingénieur en chef pour Facebook, qu’on peut apercevoir à droite sur la photo. Il aurait effacé la photo en question seulement quelques secondes après avoir compris son erreur, mais déjà quelques secondes trop tard. Plus tard, le site Gawkerrévèlera que la photo en question a été prise lors du mariage de Justin Shaffer, chef produit chez Facebook.
Au-delà du côté amusant de la fuite et la polémique à laquelle se livre l’Amérique puritaine, Facebookse retrouve à nouveau au centre d’une affaire de vie privée, et de la pire des manières. Les détracteurs ne manquent en effet pas de faire remarquer que si même le créateur de Facebook ne parvient pas à garder secrètes des photos sensées rester dans le cadre privé, les utilisateurs risquent eux aussi d’éprouver quelques difficultés à cela.

F-commerce : risque coûteux ou investissement incontournable ?


L'avenir du commerce électronique est-il soluble dans Facebook ? La question se repose à l'occasion du salon E-commerce 2012 de Paris. Pour Patrick Robin, PDG de 24h00, le réseau social est incontournable mais pour Greg Zemor, de Neteven, l'engouement actuel est à tempérer.
Il y a trois ans, on nous annonçait le social commerce comme le futur de la vente en ligne. Le marketing, la vente, les transactions… Tout serait bientôt intégré dans un écosystème dirigé par le réseau social ultime, Facebook.
Pari quasi gagné pour Patrick Robin, PDG de 24h00, agence e-marketing et social marketing et éditrice de la plateforme de création de boutiques Boosket.
"Facebook est beaucoup plus mature qu'il y a deux ans. Ils ont mis en place tous les outils nécessaires à une marque, un marchand ou une agence. Bien sûr, Facebook apportera encore des innovations pour que le F-commerce soit plus efficace et pertinent. Ce qu'on demande, c'est un peu de stabilité : c'est aux marchands et aux agences d'apprendre à utiliser ces outils désormais."
Les boutiques ont fleuri sur Facebook, ces F-stores dont Boosket s'est fait une spécialité. Mais pour Neteven, qui développe une solution de gestion des ventes sur différentes marketplaces (dont Ebay, Amazon, CDiscount, Priceminister et les sites indépendants de marques), cette maturité n'est pas acquise.

"C'est beaucoup de marketing et de publicité"

Pour Greg Zemor, directeur marketing et fondateur de Neteven, pas question de se lancer dans les F-stores pour l'instant.
"Nous restons concentrés sur les places de marché plutôt que d'aller vers les nouveaux segments. Facebook est utile pour aller chercher de nouveaux acheteurs, du trafic, mais pas pour vendre des produits. Le problème, c'est que c'est beaucoup de marketing et de publicité, mais pas de la distribution."
Il faut avouer que parmi les campagnes marketing florissantes sur le premier réseau social mondial, on trouve assez peu de vraies réussites en terme de ventes. Certains retours d'expérience ont été assez douloureux, comme chez plusieurs clients de Lengow, spécialiste de l'optimisation des campagnes marketing.
Mais pour Patrick Robin, il s'agit avant tout d'un problème de compréhension et de d'utilisation de Facebook.
"Il n'est pas question de distribution. Facebook est un point de contact parmi d'autres. Aujourd'hui, on sait que le parcours du consommateur a beaucoup changé, il peut passer sur son mobile dans le bus, poursuivre dans un magasin à midi, aller sur Facebook dans l'après-midi et finaliser son achat dans la soirée sur sa tablette ou son PC. Que l'achat n'ait pas été passé sur Facebook ne signifie pas que le point de contact n'est pas intéressant. C'est un levier supplémentaire qu'il ne faut pas rater. Car aujourd'hui, l'entonnoir de conversion est devenu une véritable passoire."
A tel point que le consommateur, demandeur "de liberté et d'ubiquité" selon le PDG de 24h00, n'en aura bientôt plus rien à faire de savoir si c'est un site web, sur son mobile ou sur Facebook qu'il achète.

"Le trafic ne tombe pas du ciel"

Reste que pour Patrick Robin, l'une des erreurs souvent faites est de croire que tout va fonctionner tout seul. "Il y a dix ans les marchands se plaignaient qu'ils n'avaient pas de trafic sur leur boutique en ligne. C'est la même chose pour Facebook : le trafic ne tombe pas du ciel. Il faut investir, et mettre en place une stratégie globale de communication et marketing, et inclure le F-commerce dedans. Si on reprend bêtement le catalogue de la boutique en se disant que ça va marcher tout seul parce qu'on a 100000 fans, ça ne fonctionnera pas." 
C'est justement sur cet investissement que cela coincerait. Greg Zemor le trouve hasardeux. L'expérience évoquée par Lengow le montre : des boutiques se sont lancées avec des moyens importants mais finissent avec très peu de ventes. Rédhibitoire.
"Si demain on dit à tous nos clients : investissez, et montez des boutiques sur Facebook, et qu'ils réalisent deux ventes par mois, il va y avoir un problème. Je veux bien qu'il faille du temps, investir, mais à un certain moment, nos clients demandent un retour sur investissement. Et nous ne sommes pas en mesure de le leur fournir avec Facebook", explique Greg Zemor
Le pari de la monétisation par les boutiques serait même risqué pour Facebook, si l'on en croit le PDG de Neteven. A un moment où le réseau social cherche à rassurer ses investisseurs et tourner la page de son introduction en bourse ratée, il lui faut monétiser son audience exceptionnelle.
"Facebook prend clairement un risque. Ils ont une communauté, constituée d'amis, de connaissances. S'ils mettent trop de publicité, s'ils laissent trop entrer la vente, cela va faire un mélange des genres qui risque de leur faire perdre du trafic. Cela fait sens pour eux, car ils doivent monétiser. Mais c'est dangereux."

"Il y a une phase d'apprentissage"

On en viendrait presque à trouver un point d'accord avec Patrick Robin, qui estime qu'on a un peu le même réflexe qu'à la fin des années 90. "Il y avait une méfiance des utilisateurs, qui confondaient sécurité et protection des données personnelles."
Pour l'instant, les gens ne sont pas rassurés quand il s'agit de laisser leur numéro de carte bleue à Facebook.  Il y a eu des erreurs de la part de certains e-marchands, aussi. Mais on n'a pas su se servir tout de suite de Google ! On ne savait pas optimiser l'achat de mots-clés comme aujourd'hui. Tout va très vite, donc on ne se rend pas forcément compte, mais il y a une phase d'apprentissage."
Quand à la question des risques pour Facebook d'une publicité trop agressive, ou d'une transformation du réseau social en plateforme de vente qui lui ferait perdre du trafic, le PDG de 24h00 n'y croit pas.
Pousser les marchands à réaliser les transactions chez Facebook l'obligerait à se fermer. Un pari qu'il risquerait de ne pas gagner.
"Facebook n'a pas intérêt à devenir un AOL bis. Ce serait contraire à l'idée qu'il a de lui-même. Mais quand on parle de vente, d'acte d'achat sur Facebook, une fois de plus, on se trompe de débat : on peut faire du F-commerce sans être sur Facebook, sur son propre site. Avec l'intégration dans l'open graph, les plugins sociaux, F-connect, on fait déjà du F-commerce. On ne vend pas sur Facebook, mais ça peut être un point de contact décisif", répète Patrick Robin

"Demain, on sera dépendant de Google et Facebook"

Dans les allées du salon E-commerce, la question divise autant que nos deux spécialistes. Personne ne remet en cause la puissance de Facebook pour ce qui concerne l'authentification – et donc l'accès à des données clients – ni l'intérêt marketing du réseau.
Mais quand on parle de vente, il y a les optimistes, et ceux qui voient la tendance comme un effet de mode, ou un phénomène à surveiller avec circonspection.
L'enjeu est fort, car il y a un risque à trop s'encanailler avec le réseau social : la dépendance à un seul acteur majeur. On a déjà vu des développeurs se retrouver le bec dans l'eau par le passé, lorsque leur application était bloquée par Apple par exemple. Ils perdaient leur unique source de revenus d'un coup.
Zynga, partenaire historique de Facebook sur les jeux sociaux, a même choisi de diversifier ses modes de distributions depuis un an. Un risque que résume Patrick Robin, qui fait plutôt partie des optimistes : "Jusqu'à peu, tout le monde était dépendant uniquement de Google. Demain, on sera dépendant de Google et Facebook. Est-ce que deux dictatures, ce n'est pas un peu le début de la démocratie ?"

Facebook fait le ménage dans les faux comptes et les J’aime



Facebook avait promis de lutter contre les faux J’aime qui gangrenaient son modèle économique. Le réseau social a commencé à le faire, en supprimant ainsi des dizaines de milliers de J’aime sur des Pages populaires.
Facebook avait reconnu le problème et annoncé des mesures pour supprimer les faux comptes, utilisateurs et J’aime enregistrés sur sa plateforme. Et le ménage a commencé.
D’après PageData, qui affiche ainsi différents indicateurs relatifs à Facebook, le réseau social a supprimé quelques dizaines de milliers de fans inscrits sur des Facebook Pages. Supprimés donc car factices. 
Plusieurs Pages très populaires ont vu leur nombre de « J’aime » reculer très sensiblement. C’est par exemple le cas de Rihanna, Michael Jackson ou encore Eminem. Mais les comptes de vedettes ne sont pas les seuls passés au crible.
La page Texas HoldEm Poker de l’éditeur de jeux Zynga a ainsi perdu pas moins de 96.000 fans – il lui en reste plus de 60 millions néanmoins, qui eux donc seraient authentiques d’après les processus de détection de Facebook.

Facebook lance la promotion payante des posts d'utilisateurs, aux Etats-Unis


Après la promotion de messages pour les pages Fan, Facebook va permettre aux utilisateurs d'assurer une meilleure visibilité à leurs posts. Une fonctionnalité coûteuse dont l'avenir dépendra du test lancé aujourd'hui aux Etats-Unis.
Facebook cherche l'argent avec les dents, et veut monétiser par tous les moyens ce qu'on a coutume d'appeler sa "formidable audience". Nouvelle idée : faire payer les utilisateurs pour qu'ils assurent plus de visibilité à leurs posts.
La fonctionnalité débarque dès aujourd'hui en test sur les comptes du réseau social basés aux Etats-Unis (après un premier test en Nouvelle-Zélande depuis mai). Elle est agrémentée d'un outil de mesure de l'impact de ses posts promus.
Promouvoir des événements importants
Ces "Promoted Posts" ressemblent très fortement aux messages sponsorisés dans Twitter... Sauf que leur accès a été facilité. Il ne s'agit pas d'une fonctionnalité qui permet aux marques de faire de la publicité dans la timeline des utilisateurs mais de faire payer les utilisateurs eux-mêmes pour promouvoir leurs messages.
Le service précise qu'il ne vise pas une utilisation au quotidien, mais souhaite permettre la mise en avant des événements, comme "les photos d'un mariage, la vente de votre garage ou une grande nouvelle."
Stratégie basée sur les utilisateurs
Dans son communiqué, Facebook ne précise pas le prix, mais un porte-parole du réseau social aurait annoncé à The Verge un coût par post autour de 7 dollars. La promotion se fait grâce à un nouveau bouton sous le message posté, à côté des traditionnels "J'aime" et "Commenter". 
Rappelons que la promotion de posts depuis une page Fan a déjà été lancée par le réseau social. Et si on voit un intérêt pour les marques, Facebook devra prouver auprès du public la pertinence de son nouvel outil.
Pour le réseau, il s'agit de poursuivre la monétisation de son service. Après les entreprises, il vise principalement les utilisateurs. Cette fonctionnalité de promotion des messages vient en effet quelques jours à peine après l'annonce d'une boutique de cadeaux en ligne.

Adobe, Apple, Facebook, Google, Microsoft, Mozilla et le W3C lancent WebPlatform.org


Voilà une étonnante brochette des grands (ennemis) du web : Adobe, Apple, Facebook, Google, HP, Microsoft, Mozilla, Nokia, Opera, qui se retrouvent ensemble pour contribuer au site WebPlatform.org, un centre de ressources pour les technologies web initié par le W3C.
Jusqu’alors, un développeur ou un designer web, pour trouver de l’information de référence ou des tutoriaux, devait naviguer entre différents sites selon sa sensibilité, son navigateur fétiche ou sa religion web : MDN (Mozilla Developer Network), Google Developers, MSDN (Microsoft Developer Network), Apple DeveloperAdobe Developer Connection, etc. Et bien sûr le W3C pour tout ce qui est référence sur les spécifications web (mais pas forcément très pratique).
On trouve également des sites indépendants tels que l’excellentW3Schools. En français, on peut citer AlsacréationsOpenWebLe Site du Zéro ou encore Developpez.com.
L’annonce de Web Platform Docs par le W3C est donc une excellente nouvelle. L’objectif est de créer un site communautaire de documentation pour le développement web, avec un contenu  cohérent qui fasse référence sur toutes les technologies ouvertes du web : HTML, CSS, JavaScript, SVG, accessibilité…  
WebPlatform s’adresse tout aussi bien aux débutants avec des tutoriaux de base (Web development for beginners) qu’aux professionnels du web avec des ressources pour le développement cross-navigateur et cross-plateforme, comme par exemple :
  • Comment utiliser chaque fonctionnalité du web ouvert, avec sa syntaxe et des exemples
  • L’intéropérabilité des diverses technologies entre les plateformes et les devices
  • Le status de la standardisation, de la stabilité et de l’implémentation de chaque spécification.

E-commerce : un 3e trimestre dynamique mais un fort ralentissement en septembre


Selon l'indice e-commerce trimestriel du JDN, les revenus des cyber-marchands français ont progressé de 19% entre juillet et septembre.
Le commerce en ligne français ne semble pas être touché par la crise. Mais pour combien de temps encore ? Si les chiffres du troisième trimestre sont bons, la fin de la période observée montre un certain ralentissement.
Selon l'indice e-commerce trimestriel du JDN, le nombre de transactions a bondi de 22,6% sur un an et les revenus des cyber-marchands français ont progressé sur la période de 18,8% sur un an. Mais si les mois d'été ont été bons (+20% en moyenne), septembre affiche "seulement" +14,7%.
Le panier moyen en repli de 3% sur un an 
Un recul que les "e-commerçants interprètent comme un premier impact de la crise sur leur secteur", commente l'étude. 
Autre signe inquiétant, le montant du panier moyen continue à baisser. Il est passé de 90,54 euros au 3e trimestre 2011 à 87,76 euros un an plus tard, soit un recul de 3%. On est bien loin des 96 euros observés en 2010.
"Etant donné le plongeon qu'il accomplit toujours au quatrième trimestre, tiré vers le bas par les achats de petits cadeaux, on peut s'attendre à ce que le panier moyen de l'e-commerce passe largement sous la barre des 85 euros à la fin de cette année", notent nos confrères.

Google giflé en Bourse à cause de résultats jugés décevants


Après une publication prématurée de ses résultats trimestriels, Google a été sérieusement malmené en Bourse. En cause : une chute de 20% de son bénéfice net, et malgré un chiffre d’affaires en augmentation de 45% à plus de 14 milliards de dollars.
Google a vu son titre être sévèrement bousculé en Bourse jeudi soir, s’écroulant ainsi de 9% avant que la cotation ne soit retirée. En cause, une publication prématurée, suite à une erreur, des derniers résultats trimestriels de l’entreprise.
Mais si cette erreur a entraîné la chute brutale du titre c’est d’abord en raison des performances décevantes que traduisent ces résultats du 3e trimestre. La déception ne se situe cependant pas au niveau du chiffre d’affaires, en hausse sur un an de 45% à 14,1 milliards de dollars. 
Non, Ce sont surtout les bénéfices de Google qui souffrent – tandis que les coûts progressent eux fortement. Sur la période, le bénéfice net recule en effet de 20% à 2,18 milliards de dollars. Et Motorola, racheté plus de 12 milliards, contribue à cette dégradation au travers d’une perte nette de 151 millions de dollars.
D’autres indicateurs inquiètent, comme le coût par click, ce que les annonceurs paient pour chaque click sur une publicité. Au 3e trimestre, le CPC baisse de 15%. Et dans le même temps, l’acquisition de trafic (affiliation) a été plus coûteuse pour Google : +25% à 2,77 milliards de dollars.

Piratage et recherche en ligne : Google s’efforce de s’attirer les bonnes grâces des ayants droit



Google s’engage à lutter plus efficacement contre les contenus illégaux : retrait dans les 24 heures des contenus violant la DMCA, filtrage des mots clés de la fonctionnalité d’autosaisie, vigilance accrue sur les publicités AdSense… Une politique qui bénéficie aux ayants droit, mais aussi directement à Google qui a signé des accords et en négocie de nouveaux.
Google a décidé de durcir sa politique en matière de lutte contre les contenus piratés. Après avoir communiqué sur les trois ans de son système d’identification des vidéos sur YouTube, Google annonce une nouvelle politique, cette fois dans la recherche et la publicité.
Sur son blog dédié aux affaires publiques, Google indique qu’il mettra en place au cours des prochains mois quatre nouvelles mesures pour protéger le droit d’auteur sur Internet.  D’abord, dans le cadre de la loi américaine sur le copyright (DMCA), Google promet d’être plus réactif et d’agir dans les 24 heures.
Les suggestions de mots clés dans Google seront "expurgées" 
Le géant américain s’engage ainsi à améliorer le process permettant aux ayants droit de faire retirer de son index et de sa plate-forme Blogger les pages dont les contenus violeraient la DMCA. En contrepartie, Google assure qu’il améliorera aussi les outils à disposition des sites pour leur permettre de contester ces requêtes de retrait. 
Deuxième mesure : brider sa fonctionnalité de saisie automatique. L’objectif est de prévenir l’affichage des mots clés associés au piratage lors des recherches sur le moteur de Google. Jusqu’à présent, les termes suggérés étaient ceux les plus utilisés, ou populaires, par les utilisateurs.
Google introduira donc des modifications sur ses algorithmes pour bloquer l’affichage de certains mots clés et ainsi rendre plus difficile le référencement de certains sites et contenus.
« Bien qu’il soit difficile de savoir précisément quand des termes de recherche sont utilisés pour trouver des contenus piratés, nous ferons de notre mieux pour prévenir l’affichage par l’autosaisie des mots les plus utilisés dans ce but » écrit le responsable de Google, Kent Walker.
Une stratégie qui devrait améliorer le référencement des contenus légaux, dont ceux de YouTube 
Dernière règle mise en œuvre dans les outils de recherche de Google : rendre la prévisualisation de contenu autorisé plus accessible. En somme, le moteur privilégiera la prévisualisation des pages pour les sites indexés offrant un accès légitime à des contenus. Google déclare par ailleurs chercher des solutions pour mieux référencer ces contenus.
La dernière mesure dévoilée par Google pour lutter contre le piratage concerne son service de publicité AdSense. La firme entend durcir sa politique afin de réduire encore plus l’affichage de publicités relatives à des produits contrefaits.
Pour nos confrères de ZDNet.com et de The Register, cette orientation de Google n’est pas désintéressée. Le géant américain a d’abord tout intérêt à rentrer dans les bonnes grâces des ayants droit avec qui il est en négociation dans le cadre de Google TV et d’un futur service de musique en ligne.
Des concessions pour aider Google TV et de futurs services ?  
Par ailleurs, en jouant sur le référencement de sites considérés par les ayants droit comme enfreignant leur propriété intellectuelle, Google améliore dans le même temps le ranking des sites « amis » ou légaux, qui auront par exemple signé des accords. C’est justement le cas de Google au travers de YouTube.
En France, Google a signé un accord rétroactif avec la Sacem en septembre. Fin novembre, la filiale française de YouTube a fait de même avec la SACD, la SCAM et l’ADAGP pour rémunérer l'utilisation des œuvres sur son site.
Google doit désormais venir à bout des réticences des chaînes de télévision pour Google TV. Cette nouvelle politique pourrait y contribuer, tout en lui permettant de rentabiliser les sommes versées aux ayants droit via un meilleur référencement des services légaux, et notamment les siens.

Facebook demande aux développeurs de ne plus utiliser Google AdSense



Le site de réseautage a enjoint les développeurs diffusant dans leurs applications des publicités AdSense de se tourner vers une régie approuvée.
Nouvel accroc dans les relations houleuses qu’entretiennent Facebook et Google. D’après les informations du site Inside Facebook, le réseau social a commencé à contacter les développeurs qui ont recours à la régie Google AdSense pour insérer des publicités dans leurs applications en leur demandant de trouver un autre prestataire.
La raison, AdSense ne figure pas dans la liste des 72 régies approuvées car Google n’a pas adhéré à ses conditions imposées aux les fournisseurs de publicité. Facebook a introduit ces nouvelles règles en décembre 2010 et fixé le 28 février comme date butoir pour que les développeurs s’y conforment en adoptant un prestataire « homologué ».
Si Google n’est pas spécifiquement visé par cette mesure, les deux entreprises sont à couteaux tirés. La situation s’est envenimée lorsque Google a décidé de bloquer la portabilité des contacts Gmail vers Facebook au motif que le réseau social n’accorde pas la réciprocité. Ce dernier a fini par retirer la messagerie Google de la liste des services tiers par lesquels les utilisateurs de Facebook peuvent importer des contacts. (Eureka Presse)

Etats-Unis : Blogger enjoint d'instaurer un système de signalement des terroristes


Le sénateur Joe Lieberman, à la tête du comité sur la sécurité nationale du Sénat, demande également à Google de bannir tout contenu relatif au terrorisme sur sa plate-forme de blogs.
Le sénateur indépendant Joe Lieberman a adressé un courrier à Google l’enjoignant de bannir de sa plateforme Blogger tout contenu ayant trait au terrorisme. Il réclame également que soit instauré un système de signalement permettant aux utilisateurs de Blogger de dénoncer ce genre d’agissement, comme c’est le cas sur YouTube.
Cette exigence prend comme prétexte l’arrestation le week-end dernier à New-York de José Pimentel, un homme de 27 ans présenté comme un sympathisant d’Al Qaida ; il aurait fabriqué des bombes artisanales qu’il prévoyait d'utiliser contre des voitures de police, des équipements de la Poste et des militaires revenant de l'étranger.
Même exigence vis-à-vis de Twitter 
Pimentel tenait un blog djihadiste sur Blogger ; c’est également sur la Toile qu’il a trouvé les instructions pour fabriquer ses bombes.
Google n’a pas encore officiellement réagi à la demande du sénateur Lieberman. Ce dernier dirige le comité sur la sécurité nationale du Sénat qui réclame aussi que Twitter cesse d’héberger les comptes des talibans qui utilisent le site de micro-blogging comme outil de propagande. (Eureka Presse)

Google, Facebook et Yahoo! ont été les sites les plus visités en 2011 aux États-Unis


Google arrive en tête toutes catégories confondues avec plus de 153 millions de visiteurs uniques par mois. Du côté des réseaux sociaux, Facebook domine toujours largement la concurrence tandis que Google+ pointe à la 8e place après 6 mois d'existence.
Nielsen a livré son classement 2011 des sites les plus visités par les internautes américains. GoogleFacebook et Yahoo! forment le trio de tête toutes catégories confondues avec respectivement une moyenne de 153, 137 et 130 millions de visiteurs uniques par mois
Si l’on se penche sur la catégorie des réseaux sociaux, Facebook devance très largement ses plus proches poursuivants que sont Blogger (45,7 millions de visiteurs uniques), Twitter (23,5 millions) et Wordpress (20,3 millions).
111 millions de visiteurs chaque mois pour YouTube
Google+ émerge déjà à la 8e place avec 8,2 millions de visiteurs uniques, sachant que le service a été lancé en bêta en juillet et ouvert au public en septembre.
Pour les sites de partage de vidéos, c’est évidemment YouTube qui domine avec plus de 111 millions de visiteurs devant Vevo (24,5 millions) et Facebook (29,8 millions). (Eureka Presse)


Google menace les sites d'information français




Face aux menaces de "lex Google" en France, le géant américain de l'Internet hausse le ton !... Le groupe menace ainsi, dans un courrier envoyé à plusieurs ministères, de cesser de référencer les sites de presse français si une loi lui imposait de rétribuer les éditeurs pour les informations redirigées sur Google Actualités... Google affirme qu'il "ne peut accepter" de s'acquitter de ces "droits voisins", qui pourraient "mettre en cause l'existence même de Google France et qu'il serait en conséquence contraint de ne plus référencer les sites français" si une loi était adoptée.
Google rappelle qu'il redirige 4 milliards de clics par mois vers les sites des éditeurs français. Pour certains sites, le trafic provenant du moteur de recherche peut même atteindre de 60 à 70% du total... La société américaine précise également qu'une telle loi "aboutirait à limiter l'accès à l'information".
La lettre de Google a fait vivement réagir l'Association de la presse d'information politique et générale, à l'origine du projet de "lex Google" française. La profession se déclare "stupéfaite" et accuse Google de vouloir "étouffer un débat public légitime sur la captation de valeur des contenus presse par les moteurs". De son côté, la ministre de la Culture, Aurélie Filippetti, a estimé que ce "n'est pas avec des menaces qu'on traite avec un gouvernement", précisant que ce dernier était "au début d'un processus de réflexion" sur le droit voisin.
Le bras de fer entre Google et la presse sur les "droits voisins" se déroule dans plusieurs pays européens, en particulier en Allemagne, dont le gouvernement a été le premier à rédiger une loi obligeant le groupe à rémunérer la presse : Le projet de loi doit encore être adopté par le Bundestag, le parlement allemand. En Belgique, une réflexion en ce sens est aussi en cours...
A Paris, le sujet sera évoqué aujourd'hui à l'occasion d'une réunion prévue entre les dirigeants de Google France et le cabinet de Fleur Pellerin, la ministre chargée de l'Economie numérique... Une réunion au cours de laquelle Google sera aussi rappelé à l'ordre au sujet de sa gestion de la vie privée de ses utilisateurs. Mi-octobre, les 27 autorités européennes de protection des données ont ainsi mis en garde le groupe américain, et lui ont demandé "d'offrir aux utilisateurs un meilleur contrôle de la combinaison de données entre les nombreux services qu'elle propose". Elles veulent aussi que Google modifie les outils utilisés afin d'éviter une collecte excessive de données sur les internautes...

Google menace d'enlever les journaux français de son moteur de recherche



Google menace d'enlever les journaux français de son moteur de recherche

Dans un courrier adressé au gouvernement français, Google menace de ne plus référencer les sites de presse hexagonaux si le projet de taxe visant à faire payer des droits d’auteur aux agrégateurs d’informations était adopté.


 

Après les “pigeons”, c’est un aigle royal américain qui s’en prend au gouvernement français. Jeudi 18 octobre, Google a menacé l’Hexagone de mesures de rétorsion en cas d’adoption de la fameuse "lex Google", une taxe visant à faire payer des droits d’auteur aux agrégateurs d’informations.
 
Dans une missive adressée à plusieurs ministères, et dont a eu connaissance l’AFP, le géant de l’Internet explique qu’il pourrait être contraint de ne plus référencer les contenus des médias français sur son moteur de recherche ainsi que sur Google Actualités.
 
Google en arriverait à une telle extrémité si le gouvernement décide d’adopter une taxe visant à forcer les moteurs de recherche à verser des droits - appelés droits voisins - en cas d'utilisation indirecte de leurs travaux. En clair, cette mesure, défendue par le Syndicat de la presse quotidienne (SPQ), obligerait le géant américain à payer les médias à chaque fois qu’un internaute cliquerait sur un lien renvoyant vers un article de presse français.
 
Une proposition qui a été reprise, mercredi, par la ministre de la Culture, Aurélie Filippetti, devant la commission des Affaires culturelles de l'Assemblée nationale. Pour le groupe américain, “l'ambition de ce texte est d'interdire le référencement non rémunéré. Une telle loi aboutirait à limiter l'accès à l'information, à réduire le nombre de sites français référencés sur Internet mais aussi à freiner l'innovation”.
 
Précédents belge et allemand
 
La France n’est pourtant pas le premier pays à envisager une telle mesure. En 2011, Google avait pendant plusieurs jours déréférencé les sites des journaux belges alors que ces derniers demandaient depuis plusieurs années d’être rémunérés en droits d’auteur pour des reprises dans Google Actualités.
 
Mais l’idée française s’inspire directement d’un projet de loi allemand adopté début septembre 2012 par le gouvernement et qui oblige tous les moteurs de recherche à rémunérer les médias en fonction des liens indexés sur le service Actualités. Bien qu’il n’ait toujours pas été approuvé le Parlement allemand, le projet suscite un vif débat outre-Rhin. Les détracteurs de la mesure craignent que la rémunération tirée des activités de Google ne renforce, au final, la dépendance des sites d’information au géant de l’Internet. Pour l’heure, l’intéressé n’a pas menacé de désindexer les sites d’information et s’est contenté d’arguer qu’une telle mesure “limiterait l’accès à l’information”.
 
Il faut dire qu’en France le moteur de recherche n’est pas seulement menacé par cette “lex Google” mais aussi par un amendement au projet de loi de finances 2013 qui prévoit d’instaurer une taxe sur la publicité en ligne. Un tel impôt, s’il était adopté, s’attaquerait au cœur de métier du géant de l’Internet qui tire plus de 90 % de ses revenus de la publicité.

10 annuaires de qualité pour inscrire votre site




checking

Lorsque l’on travaille sur le référencement d’un site, les inscriptions dans les annuaires servent à deux choses.
1.  Apporter un peu de trafic à votre site
2.  Augmenter votre nombre de liens entrants.
Il est déconseillé de procéder à des inscriptions automatiques ou de succomber à certaines offres du type « 500 annuaires pour 50 euros », car au mieux, cela ne sert à rien, au pire cela vous fera subir certains filtres de Google. Nous ne rentrerons pas à nouveau dans le détail, car nous en parlions déjà sur ce document relatif aux pièges et conseils pour les inscriptions aux annuaires.
En revanche,  il est judicieux de s’inscrire dans des annuaires de qualité. C’est à dire, des annuaires eux-mêmes bien indexés dans les moteurs de recherche et capables de vous apporter du trafic et de très bons liens entrants. Leurs conditions d’inscription sont parfois draconiennes, ce qui ne plaît pas à tout le monde (bonjour Sébastien  ;-)   ), mais c’est sans doute le prix à payer pour conserver leur qualité.

Voici donc une liste de 10 annuaires de qualité pour booster votre trafic…

Indexweb est un annuaire d’excellente qualité. La sélection des sites proposés est assez drastique, mais c’est indéniablement ce qui en fait l’intérêt. Google l’apprécie et lui a attribué un PR5 pour la page d’accueil et les rubriques ou pages individuelles de présentation des sites possèdent aussi du Page Rank (cela confirme qu’elles sont visitées par les robots).
Contrainte (justifiée) : c’est qu’Indexweb vous oblige à proposer une description unique de votre site puisqu’il veut éviter à tout prix le duplicate content.
Inconvénient (s) : L’inconvénient qui existait jusqu’alors à été résolu juste avant la publication de cet article. Vous pouvez maintenant choisir, non seulement le Title de la page de l’annuaire, mais aussi l’ancre du lien sortant. Bravo ! (Merci Denis ;-) )
Avantage (s) : en parallèle, une fois votre site accepté, vous pouvez rédiger un communiqué de presse qui comprendra jusqu’à 5 liens vers vos pages profondes, un must. Le lien de retour n’est pas obligatoire, mais donne des avantages en terme de classement et permet d’apparaitre en sponsor de catégorie avec un lien supplémentaire selon les visites générées. Par ailleurs, cet annuaire apporte réellement du trafic. Un très bon annuaire.
Un annuaire de qualité, car régulièrement maintenu. La rapidité de validation est fulgurante… si vous vous êtes donné la peine de lui proposer une description correcte. Les catégories internes sont rankées par Google.
Contrainte (justifiée) : c’est aussi l’obligation d’une description unique. D’ailleurs, si vous cherchez à tricher et à la reproduire, même plus tard, votre site sera désinscrit (et c’est compréhensible)
Inconvénient(s) : très relatif en regard des avantages, on peut ne pas aimer le look (un peu vieillot, noir pesant sur les bordures). Il est clairement, dès sa page d’accueil, beaucoup plus tourné vers les webmasters que vers les visiteurs.
Avantage(s) : La possibilité de saisir jusqu’à 10 titres et descriptions supplémentaires pour les pages profondes de votre site, un vrai rêve, servit sur un plateau. Vous pouvez choisir les ancres de chacun des liens que vous faîtes vers votre site. Les pages internes qui décrivent votre site sont rankées par Google. De plus le lien de retour n’est pas obligatoire (il permet toutefois de vous faire monter dans la catégorie).  Il est aussi à noter que la gestion des sites soumis est très pratique. En bref, un excellent annuaire.
Un vrai portail, ce qui lui permet de s’assurer un trafic conséquent (26000 pages vues / jour). Les pages de description des sites obtiennent du PR (1 ou 2). Les validations sont très rapides. Les sites sont acceptés si la description, mais surtout, la qualité éditoriale et le graphisme tiennent la route.
Contrainte (justifiée) : rédiger des descriptions soignées,  ne rien bâcler.
Inconvénient(s) : Le lien est réalisé sur le domaine, vous ne pouvez pas choisir votre ancre.
Avantage(s) : pas de lien de retour obligatoire. Celui-ci vous permet toutefois d’acquérir une meilleure place dans les rubriques. Un très bon annuaire.
On ne présente plus les forums Webrankinfo sur lesquels sont passées au moins une fois toutes les personnes se posant des questions sur le référencement d’un site. WRI propose aussi un annuaire.
Celui-ci a subi un fort déclassement de PageRank il y a quelques temps, mais semble toujours relativement intéressant en terme de BL. Pour ce qui est du trafic, il sera essentiellement constitué de webmasters en recherche de partenariat pour des échanges de liens.
Contrainte (justifiée) : rédiger une description correcte avec de vraies phrases (assez normal)
Inconvénient(s) : Obligation de saisir une liste de 10 expressions-clés qui ne servent visiblement qu’à WRI mais n’apportent rien à votre site. Un délai d’attente pouvant atteindre plus de 9 mois si vous ne mettez pas de liens de retour. Un code de lien de retour qui déguise votre site en sapin de noël.
Avantage(s) : 4 liens en dur (à partir de l’annuaire WRI et du Dicodunet). Une présence utile pour trouver des partenaires pour l’échange de liens. Un bon annuaire malgré la patience nécessaire pour attendre une validation si le lien de retour n’est pas en place. Un seul compte pour gérer tous ses sites.
Un annuaire géré par des personnes ayant quelques connaissances en référencement ;-)
La page d’accueil possède un PR6 et certaines pages de catégories ont elles-mêmes du PR. C’est plus rare pour les pages de présentation des sites (le maximum de 400 caractères autorisés pour la description y est sans doute pour quelque chose, car il n’y a pas de quoi s’étendre pour le contenu).
Contrainte : lien de retour quasi obligatoire si vous souhaitez une validation.
Inconvénient(s) : malgré le délai de quelques heures annoncé pour la validation, la réalité est moins idyllique (même avec un lien de retour). Il ne sert à rien d’écrire aux admins qui ne répondent pas. Il est préférable de savoir les contacter par d’autres biais;-) .
Avantage (s) : Yagoort reste un très bon annuaire en terme de BL si vous avez de la patience. Il est possible d’obtenir des liens à partir de plusieurs catégories de l’annuaire pour lesquelles vous aurez préalablement rédigé des mots-clés (ceci n’est applicable qu’une fois votre site validé)
edit : suite à un échange sur le forum WRI (pour lequel vous trouverez le lien dans les commentaires), Zecat, un des administrateur de ce très bon annuaire m’informe que :
- Il n’y a aucun lien entre le fait de mettre un lien de retour vers Yagoort et la validation de votre site.
- Le rythme des validations à repris et l’attente n’excède plus 24 heures (belle performance).
- Qu’il répondra maintenant aux mails maintenant que son acolyte « Zarrlboro » à enfin fait suivre les mails ;-)
Bref, rien que des bonnes nouvelles ! Yagoort mérite d’autant plus sa place dans cette liste.
edit bis (avril 2010) : Il semble qu’il faille encore patienter un peu puisqu’un site que nous avions soumis en janvier 2009 est toujours en attente de validation en avril 2010. Les administrateurs ne peuvent être joint par le formulaire car l’antispam ne fonctionne pas. Les dernières news du site datent d’octobre 2009.
Nous attendons un retour de la part d’un des administrateurs que nous avons recontacté à partir du forum WRI.
…suite, il semble que Zecat nous prépare quelque chose, mais pour le moment, c’est secret !
En attendant, peut-être vaut-il mieux vous concentrer sur d’autres annuaires.
edit ter (sept 2010) Bon,  et bien cette fois, je pense que yagoort est définitivement mort.
edit (26 septembre 2011) La saga Yagoort continue. Après avoir annoncé la mort définitives des inscriptions, Zecat fait renaitre l’annuaire de ces cendres. Bonne nouvelle, c’est reparti !
Cet annuaire est spécialisé dans les boutiques en ligne ou sites e-commerce. L’annuaire attache une importance particulière à la qualité des boutiques proposées qui sont visitées et testées. Les sites semblant peu sécurisés en terme de paiement sont écartés. Les pages des rubriques et celles de présentation des sites arrivent à avoir du PR. C’est globalement un annuaire de bonne qualité et qui en prime apporte un peu de trafic. Notons que cet annuaire vient de vivre un profond relookage en Aout 2009.
Contrainte : Rédiger une vraie description (encore une fois, c’est normal)
Inconvénient(s) : Vu le lien fait vers votre site, bien caché tout en bas de la fiche descriptive, c’est un coup de chance d’avoir un visiteur si celui-ci n’est pas un peu habitué au net (edit 2010 : ce point a été amélioré)
Avantage(s) : Le lien est fait sur l’ancre de votre choix (mais précédé du nom de domaine). Information du nombre de visites sur la page de présentation du site soumis. Une possibilité de laisser des commentaires pour les visiteurs. Il sera aussi bientôt possible de diffuser des communiqués comprenant plusieurs liens vers des pages profondes.
Bonus : je sais, on a dit 10 annuaires, mais pour les boutiques en lignes, notons aussihttp://www.annuaire-boutique-ecommerce.com/ qui est un excellent annuaire et dans lequel on peut soumettre plusieurs fois le même site dans des catégories différentes pouvu que la description soit totalement différenciée. Ne vous plantez pas sur le capcha, il faudra ressaisir tout le formulaire (grrrr).
Encore un annuaire bien tenu. Les pages internes possèdent du PR et les pages de description des sites arrivent à en obtenir. Net-liens vous demande deux descriptions, une courte de présentation et une longue pour la page individuelle de mise en avant du site.
Contrainte : Lien de retour obligatoire (sinon, un mail vous rappelle d’ailleurs que votre site va être supprimé)
Inconvénient (s) : des « aperçus » de site qui n’ont pas l’air de bien fonctionner et pas de possibilité d’uploader sa propre image. Pas de possibilité de choisir l’ancre de votre lien
Avantage(s) : Un BL que l’on peut obtenir dans le cadre d’une page à la thématique que l’on optimise soi-même.
Comment parler d’annuaire sans parler de DMOZ ?
C’est l’un des plus vieux annuaires francophones. Sa notoriété est bien plus grande chez les webmasters que chez les internautes lambda car le contenu de DMOZ est régulièrement repris pour alimenter le répertoire Google directory. Les pages internes sont très souvent rankées, et de toute manière, c’est toute la base qui part chez Google, environ 2 à 3 fois par an. Le titre et la description de DMOZ sont souvent repris par Google dans les SERP.
Contrainte : Donner un titre et une description correcte de votre site (rédigée à la troisième personne et avant tout descriptive).
Inconvénient(s) : DMOZ peut être comparé à un test de niveau de patience des webmasters. La validation d’un site peut prendre 2 ans. En général parce que le titre et la description sont contraires aux règles définies. Les bénévoles qui gèrent les validations vous mettent donc très en dessous du tas pour le jour ou il auront le temps. Moi-même éditeur, je dois avouer que ceux qui n’ont pas pris le temps de passer 5 minutes sur leur description peuvent attendre 1 ou 2 ans avant que je ne fasse ce travail à leur place… si je le fais un jour. Je privilégie ceux qui jouent le jeu et certains ont vu leur site validé en 1 minute ( c’était un hasard, je l’avoue).
Avantage(s) : Une prise en compte assurée par Google.
Un véritable portail s’accompagnant d’un annuaire qui s’assure un bon nombre de visites. Les pages des rubriques possèdent du PR, Il est possible d’intégrer une actualité ou une page spécifique de présentation de votre société en plus de votre site dans l’annuaire. Les hôteliers ou restaurateurs peuvent avoir des pages complémentaires de présentation.
Contrainte : Votre description et titre du site sont souvent remaniés par l’administrateur, même s’ils semblent être conformes aux règles d’édition (mais il est chez lui, alors…)
Inconvénient (s) : Vous devez ouvrir un compte pour inscrire votre site, mais il faut un compte et un mail par site (une vraie galère). Il est conseillé de mettre le lien de retour et d’avoir des clics dessus, sinon, vous serez relégué à la 30ème page de la rubrique.
avantage(s) : une rapidité de validation fulgurante.
L’annuaire Koxin est tenu par une personne qui possède quelques notions de référencement ;-)
L’avantage, c’est d’avoir un outil très bien conçu pour être correctement indexé, afin de promouvoir au mieux votre site. L’annuaire ne possède qu’un PR3, mais les rubriques correctement thématisées.
Contrainte : un lien de retour obligatoire si vous souhaitez bénéficier de « la totale »
Inconvénient (s) : un délai de validation extrêmement long (plus de 6 mois)
Avantages : La possibilité de saisir plus de 1000 caractères dans votre description, pour en faire une page unique parfaitement thématisée.  Possibilité d’insérer 4 liens complémentaires vers des pages profondes de votre site. Possibilité d’insérer 3 flux RSS.
Edit : avril 2010. L’annuaire semble avoir été abandonné (plus aucune validation) , dommage.
- – - – - – - – - -
Voici donc une première liste d’annuaires qui vous permettra de lancer le référencement de votre site.
Bien sûr, il existe de nombreux autres annuaires, mais je n’allais pas faire une liste de 500. D’une part, ce serait trop long, d’autre part,  je doute qu’il existe réellement 500 annuaires francophones de qualité.

Quelques informations complémentaires :

Le Page Rank sur un annuaire :
Le page rank n’est pas un but, il permet simplement de s’assurer que les pages sont visitées par Google, ce qui vous assure la prise en compte du lien entrant vers votre site.
Les annuaires de qualité :
Vous cherchez d’autres annuaires ? Il y en a tout de même d’autres que ceux de cette liste sur le web, vous pouvez commencer votre recherche par ici QualiSEO. C’est un excellent annuaire d’annuaires. Il vous permet de faire votre tri selon vos besoins.
Les descriptions uniques demandées par les annuaires :
Si une bonne partie des annuaires vous demande aujourd’hui une description unique de votre site, c’est parce que ceux-ci tremblent devant le risque de contenu dupliqué. Positivons cet aspect. Si vous pouvez rédiger une très longue description en optimisant au mieux vos textes, vous vous créez   la page idéale en terme de contexte et de thématique pour y placer le backlink de vos rêves. Si en prime, les annuaires laissaient la possibilité de mettre des liens dans le contenu, ce serait la panacée (certains le font).
Le trafic en provenance des annuaires :
Ne vous leurrez pas, une grande partie du trafic provient de webmasters qui s’inscrivent eux-mêmes, mais en profitent pour éplucher les sites des concurrents ou sont à la recherche de « partenaires ». On constate tout de même des visites utiles de vrais internautes (mai si mais si, il n’y a pas que les crawlers qui visitent le web), et comme par hasard, plutôt à partir d’annuaires qui apportent un vrai plus en terme de qualité.
Combien de temps faut-il pour inscrire son site dans un annuaire ?
Si l’on prend en compte ces étapes :
  • Recherche de la catégorie la plus adaptée à votre site, car certains annuaires sont des jungles (ce qui accélérera la validation et vous permet de choisir une page possédant du PR).
  • Rédaction d’une à deux descriptions uniques (souvent une courte et une longue). C’est l’opération la plus longue.
  • Intégration d’un lien en dur vers l’annuaire sur votre site avant l’inscription.
  • Remplissage du formulaire (d’une manière générale, prévoyez de tout avoir préparé sur un autre document, car lorsqu’après avoir raté le passage du capcha vous devez ressaisir tout le formulaire, vous avez envie de trucider l’annuairiste).
  • Validation du lien dans le mail de confirmation (qui met parfois 4 heures à arriver).
  • Contrôle périodique de la validation (tous n’adressent pas de confirmation).
et bien vous arrivez facilement à  une demi-heure passée pour un seul annuaire. Il est donc important de ne pas aller vous inscrire n’importe ou si vous ne voulez pas y perdre votre temps.
Pourquoi les annuaires me « volent » ma place dans Google ?
S’il y a une réflexion qui m’amuse beaucoup dans les forums dédiés au référencement, c’est bien celle-ci. Résumons. Si vous inscrivez votre site dans des annuaires, c’est qu’il est généralement jeune et mal référencé et que vous voulez améliorer votre trafic et accessoirement votre positionnement.
Forcément, lorsque vous vous inscrivez dans un annuaire dont le webmaster n’est pas mauvais en optimisation et a sans doute plusieurs années d’existence, c’est cet annuaire qui va se positionner devant vous, généralement sur une requête liée au titre que vous avez inscrit.
C’est tout de même un minimum, non ?  Pourquoi voudriez-vous que Google prenne en compte votre jeune bébé alors que l’annuaire a déjà fait ses preuves. C’est aussi de cette manière que vous allez obtenir vos premières visites si la description que vous avez donnée de votre site donne réellement envie de le consulter.
On lit aussi parfois cette reflexion de la part de webmasters qui n’ont pas appliqué le dixième des  conseils en optimisation de site que l’on trouve à droite à gauche, et notamment sur ce blog. Alors forcément, si l’annuaire a été correctement conçu, il restera devant vous. On ne peut tout de même pas blâmer l’annuairiste si vous avez été mauvais dans la conception de votre site.
En revanche, si vous avez travaillé correctement, votre site finira par dépasser les annuaires dans les SERP, et votre positionnement  s’améliorera au fil du temps.