jeudi 31 mai 2007

MT continue to block access to Google Earth

Morocco
Maroc Telecom and Vivendi continue to block access to Google Earth for moroccan internet users for no reason. The censorship of Google Earth started in august 2006 and never stopped as of today. Morocco is the only country in the world to do that. I invite freedom and human rights defenders and the journalists all over the world to make this known to everybody! Inform the world about this absurd censorship that lasts for almost a year now and that is aimed only at Moroccans.Ask the moroccan government, Maroc Telecom and Vivendi (who controls Maroc Telecom) for official statements about this matter.

mercredi 30 mai 2007

Censure internet : où va le Maroc ?

Censure illégale de pas mal de sites et services internet par Maroc Telecom.

Depuis août 2006 MT est impliqué dans la censure de plusieures sites, services et applications sur le net, par contre les deux concurents Wana et Meditel n'ont rien filtrer ce qui laisse penser que cette censure ne se base sur aucune décision gouvernementale.
La communauté marocaine dennonce cet abus de pouvoir pratiquer par MT et fait appel aux differents acteurs de se mobiliser afin de trouver refuge a ce probleme car nous n'avons pas besoin d'un internet choisi, d'un internet filtré sans raison.

Voici un récapitulatif des differents sites censurés par MT :

Sites Web:
Services:
Applications:

vendredi 18 mai 2007

YouTube défie le Pentagone

Chad Hurley, 30 ans, et Steve Chen, 28 ans, co-fondateurs de YouTube, réagissent au blocage de leur plate-forme de partage de vidéos par le Département américain de la défense (DoD).

« Ils disent qu'il s'agit (de libérér) de la bande passante, mais l'armée des Etats-Unis a créé Internet ! Vraiment je ne vois pas quel est le problème », a déclaré Chad Hurley, CEO de YouTube, lors d'un entretien accordé à l'Associated Press jeudi 17 mai 2007. Steve Chen, directeur technique du service, a indiqué vouloir négocier une levée partielle de l'interdiction, voire la fin du blocage. « Nous aimerions examiner ce qui est en cause ici et parler de ce que nous pouvons faire pour tirer cette affaire au clair », a précisé Julie Supan, porte-parole de YouTube.

En début de semaine, le Pentagone a décidé de bloquer l'accès, depuis ses systèmes informatiques, à une dizaine de sites communautaires. YouTube (Google), MySpace (News Corp) et Photobucket (en cours de rachat par News Corp) comptent parmi les services concernés. D'après un mémo signé du général américain Burwell Baxter Bell, cette initiative a pour but de mieux protéger les données sensibles et de réduire le volume de trafic enregistré depuis les bases étrangères des forces armées américaines.

Source : Neteco

mercredi 16 mai 2007

AMD veut frapper trés fort pour ce deuxième semestre 2007

AMD Phenom pour redresser le cap ?

Après les Athlon, Duron et autres Sempron, le futur Athlon 64 quad core ne s'appellera pas Athlon 64 X4 mais Phenom. L'information a été révélée par le site polonais PCLab.pl. S'il est vrai que des noms comme Pentium ou Athlon véhiculent une certaine image, il faut parfois tourner la page. L'appellation Core 2 Duo associé à l'architecture Core a vite fait oublier le Pentium et les défauts notables des dernières versions. Pour AMD, le renouveau attendu avec la microarchitecture K10 et la dénomination Phenom feront peut-être oublier que les Athlon 64 X2 étaient dominés par les Core 2 Duo dans tous les domaines...

Que ce soit sur le plan technique ou marketing, les choix d’AMD sont capitaux. La situation est des plus préoccupantes au niveau financier. Les pertes s’accumulent et le constructeur se prépare à une recapitalisation. AMD espère ainsi récolter 2,2 milliards de dollars dont 500 millions serviront directement à payer une partie des 2,5 milliards dus suite à l’achat d’ATI.

Les details sur les nouveaux AMD Phenom

Le site Dailytech a réussi à obtenir la dernière roadmap d’AMD concernant les prochains processeurs K10 d'AMD connus sous le nom de " Phenom." Les processeurs sont regroupés en trois catégories : les Phenom FX (au cœur Agena FX ), les Phenom X4 (au cœur Agena) et les Phenom X2 (au cœur Kuma).
Coté fréquence, les Phenom FX seront cadencés de 2.2 Ghz à 2,6 Ghz, les Phenom X4 de 2,2 Ghz à 2,4 Ghz et les Phenom X2 de 2,2 Ghz à 2,8 Ghz. Tous les Phenom utiliseront le bus Hyper transport 3.0 dont la fréquence sera proportionnelle à la fréquence du processeur. Le TDP des Phenom ne dépassera pas les 89W, pour un minimum de 65W pour les Phenom X2 (45W pour les Phenom X2 basses consommations)

En entrée de gamme, on devrait avoir des Athlon X2 (à cœur Rana) cadencés à 2,2 Ghz pour un TDP de 65W. Le nom Sempron désignera quant à lui les processeurs single core de la gamme cadencés de 2,2 Ghz à 2,4 Ghz le TDP sera de 45W. Les Phenom FX et X4 seront lancés au troisième trimestre 2007, le Phenom X2 au quatrième trimestre. Enfin, au premier trimestre 2008 verront le jour les Athlon X2, les Sempron et les Phenom X2 Low Power.

L'arrivée d'un nouveau bijou graphique signé ATI

Longtemps baptisé R600, le nouveau et premier processeur graphique d'AMD a officiellement reçu le nom de baptême de Radeon HD 2900 XT. D'emblée, on note la disparition du préfixe X qui caractérisait depuis plusieurs années déjà les puces graphiques Radeon au profit du préfixe HD, censé insister sur les fonctions haute-définition de la nouvelle famille DirectX 10 d'AMD. Car si nous vous présentons aujourd'hui le Radeon HD 2900 XT, modèle haut de gamme par excellence, AMD prévoit de sortir dès cet été les déclinaisons milieu et entrée de gamme du R600 avec les Radeon HD 2400 et 2600. On ne pourra d'ailleurs s'empêcher de tiquer sur ce détail, puisqu'aux dernières nouvelles, l'ultime report du R600 avait été justifié par la volonté d'AMD de lancer une famille complète et non une seule puce… c'est visiblement raté ! Le retard d'AMD est-il salutaire ? Le R600 va-t'il mettre à mal le GeForce 8 ?

mardi 15 mai 2007

Deux nouvelles versions de Vista et Office 2007 dans les mains du Warez

USA
Le moins que l'on puisse dire est que les pirates de logiciels ont de la suite dans les idées. Le groupe DiGiTAL vient de diffuser sur Internet une nouvelle version (US) de Office Entreprise 2007. Une version qui ne demande par d'activation. Les pirates ont diffusé une clé qui permet de faire fonctionner cet outil vendu dans le commerce près de 300 euros.

Même sanction pour une nouvelle version (US) de Windows Vista. Le groupe NoPE vient de diffuser Windows Vista Ultimate X86. Un DVD qui ne réclame aucune identification, ni clé d'activation. Pour rappel, la copie est illégale.


Source : Zataz

mercredi 2 mai 2007

Football : France Télécom n’enchérira pas sur les droits du direct

France Télécom n’enchérira pas sur les droits de retransmission en direct du championnat de France de fooball (Ligue 1).

Le groupe ne souhaite pas entretenir “la spéculation sur les droits du football”. Intervenant dans un colloque sur la convergence numérique, Hervé Payan, le directeur partenariats et services de contenu d’Orange a déclaré que son groupe n’avait “pas l’intention de participer à la spéculation sur les droits du football. Il y a trois ans nous avions déposé une offre correspondant à ce que nous pouvions en tirer commercialement” a-t-il ajouté.

“Aujourd’hui les conditions ne sont pas réunies” a-t-il indiqué, soulignant le fait que France télécom ne dispose pas de chaîne pour diffusé les droits. Il a ainsi exclu que France Télécom soit candidat à l’achat des droits des matchs de football en direct et créée une chaîne dans la foulée pour les diffuser.
Lors du dernier appel d’offre, France Telecom avait proposé quinze millions d’euros pour les droits de paiement à la séance finalement acquis par Canal+, pour 110 M€ par an. En Europe, plusieurs opérateurs télécom ont participé aux appels d’offres de leur championnat national (Versatel aux Pays-Bas, Belgacom en Belgique, etc.)
Source : MediaBB

Damn Vulnerable Linux : parce que rien ne vaut un peu de pratique

DVL est une distribution Linux basée sur la ditro Damn Small Linux (DSL) qui se destine à l'apprentissage par la pratique de la sécurité informatique sous linux.

Basée sur la distribution Linux minimaliste Damn Small Linux, DVL (littéralement Linux Sacrément Vulnérable) se destine à l'apprentissage par la pratique de la sécurité sous Linux. Elle s'adresse aussi bien aux administrateurs débutants qu'aux plus aguerris.

L'approche est originale puisque DVL est configurée de telle sorte à laisser ouvertes le plus de failles de sécurité possible. Il appartient alors à l'utilisateur de tirer profit des utilitaires proposés, qu'ils soient offensifs, ou plus classiquement défensifs, pour conforter ses connaissances de la sécurité des systèmes Linux. A lui alors de colmater les brêches ou de les exploiter à loisir.

Les nombreux tutoriels embarqués permettent à tout un chacun de se perfectionner et d'expérimenter directement les notions abordées.Gratuite et distribuée sous la forme d'une image Live (donc bootable), elle peut également être utilisée via des machines virtuelles comme VMWare.Désormais, les buffers overflows et autres "exploits" n'auront plus aucun secret pour vous !

Websense fait l'acquisition de SurfControl

L'américain Websense s'offre la société britannique SurfControl, spécialisée dans les solutions « à la demande » destinées à la sécurisation des applications Web et Email.

La proposition d'achat formulée le 26 Avril valorise la cible à près de 300 Millions d'euros. L'opération, déjà approuvée par les deux directions, ne sera toutefois effective qu'après l'aval des autorités de régulation américaines et britanniques.

Des synergies sont attendues

Sur le plan technique tout d'abord, où les dirigeants de WebSense et de SurfControl voient dans cette opération l'opportunité d'être compétitifs face aux poids lourds du secteur de l'édition de logiciels de sécurité. Gene Hodges, CEO de Websense, s'est déclaré être enthousiasmé à l'idée de pouvoir désormais offrir à ses clients la solution BlackSpider, le service à la demande de sécurité logicielle phare de SurfControl, hérité du rachat l'an passé de BlackSpider Technologies. Cette solution permettra d'adresser plus efficacement le stratégique segment des petites et moyennes entreprises.

En outre, financée partiellement par les banques, l'acquisition devrait permettre des réductions de coûts et d'améliorer le cash flow généré de l'ordre de 40 Millions d'euros d'ici 2010.

Le client reste roi

Le support des produits SurfControl sera assuré jusqu'en 2010 et l'ensemble des produits du groupe profitera de la mise en commun des résultats de leur recherche respective.

Pourquoi choisir Linux ?

Linux ou Windows ? Pour beaucoup de profanes, la question ne se pose même pas tant l’hégémonie de la marque de Bill Gates semble naturelle. Or, système d’exploitation totalement libre, Linux est une alternative de taille au monopole Microsoft. Transparence, coût, stabilité, sécurité, ses nombreux avantages devraient faire réfléchir à deux fois avant de choisir.

Plus de 99% des PC grand public sont équipés Windows. Un impressionnant monopole qui fait sournoisement oublier qu’une alternative existe : Linux. Pourquoi sortir des sentiers battus et choisir un autre système d’exploitation ? Car loin d’être aujourd’hui un choix de francs-tireurs informatiques, Linux recèle de précieux avantages pour concurrencer Windows. Stable, gratuit, malléable, transparent, il jouit aujourd’hui d’une solide maturité qui, à terme, à bien de quoi inquiéter Bill Gates.

Avec la piraterie domestique de logiciels informatiques, autant dire que Monsieur tout le monde n’est pas véritablement concerné par la bataille Linux/Microsoft. Le Pack Office du dernier, initialement prévu pour un seul ordinateur, servira à installer World, Excel, PowerPoint, Outlook et Access sur pléthore de machines. Dans la plus parfaite illégalité. Ce que ne peuvent absolument pas se permettre les administrations ou les grandes sociétés. Ou du moins à leurs risques et périls. Car les contrôles, plus faciles à effectuer dans les entreprises que chez les particuliers, peuvent faire mal. Et l’amende s’avérer salée.

Une économie substantielle

Le calcul est simple. Imaginez un parc informatique théorique de 1 000 ordinateurs, comme on pourrait en trouver dans les ministères ou les grandes sociétés. Si l’on veut installer un système d’exploitation Windows, il vous faut payer une licence par machine, 270 euros pour la version XP. Coût total de l’opération 270 000 euros (un prix généralement compris dans le prix de l’ordinateur, déjà livré avec Windows). Mais vous n’avez pas pour autant les outils bureautiques Windows. Pour chaque Pack Office il vous en coûtera 279 euros ou 129 euros pour une simple mise à jour. Soit 279 000 ou 129 000 euros. Au final, toutes choses égales par ailleurs, l’ardoise de l’achat de logiciels s’élève à la bagatelle de 549 000 ou 399 000 euros. Avec Linux il ne vous aurait pas coûté le moindre sou.

Développé dans les années 90 par un étudiant finlandais génial, Linus Torvald, Linux se base sur le système d’exploitation Unix pour en créer sa propre version. Une version dont il laisse le code source ouvert. Tout le monde peut donc y accéder et l’adapter à ses propres besoins. Des communautés de développeurs s’en emparent à travers le monde pour créer des applications pareilles à celles que propose le géant Microsoft, qui garde jalousement secrets l’ADN informatique de Windows. Une philosophie diamétralement opposée à Linux dont les logiciels restent en open source.

Le cheval de Troyes Windows

Le premier avantage de l’open source est que les utilisateurs maîtrisent totalement le fonctionnement des applications. Nul ne sait, autre que chez Microsoft, ce qui se passe exactement dans Windows. Une opacité qui suscite quelques légitimes interrogations dans certaines grosses administrations ou sociétés privées. Il y a-t-il des mouchards pour espionner, via Internet, le contenu des programmes et pirater des données sensibles ? Les plates-formes Linux sont quant à elles complètement transparentes dans leur fonctionnement.

Cheval de Troyes informatique, Microsoft enferme également l’utilisateur dans l’univers produits de la marque. Il profite de l’hégémonie de Windows pour mettre en avant ses autres produits (Office, Internet Explorer, Windows Multimédia, MSN Messenger). Et la majeur partie des applications de l’éditeur que l’on veut rajouter sur son PC Windows sont payantes. A l’image du célèbre Pack Office. Vous voulez avoir la dernière version des logiciels, vous payez une actualisation ou vous achetez un kit d’installation complet. Vous voulez actualiser votre système d’exploitation, vous devez encore payez la mise à jour.

Une plus grande fiabilité

Pack Office vs Open Office (sa version Linux) : le grand public n’y verra que du feu. Le retard dans l’ergonomie et l’interface graphique a depuis longtemps été rattrapé par la communauté de l’open source. Traitement de texte, tableur, base de donnée, courrier électronique, Linux propose exactement les même fonctionnalités. Il offre, et c’est là l’un de ses avantages capitaux par rapport à Microsoft, accès une immense bibliothèque de logiciels libres dont sans licence d’exploitation à payer. Le logiciel de traitement d’image Photoshop de l’éditeur Adobe (vendu 2 271 euros dans le pack Design Collection) a, par exemple, avec Gimp son équivalent Linux.

Le gros point fort de Linux reste tout de même la stabilité du système. Une stabilité qui résulte de l’interactivité entre les milliers d’utilisateurs. Chaque application Linux est d’abord lancée en version bêta sur le Net pour qu’elle soit testée par les utilisateurs. Ces derniers se chargent de rapporter chaque bug, pour qu’il soit corrigé. La version finale jouira d’une extraordinaire stabilité, puisque de milliers de personnes auront participé à sa perfectibilité. Une fiabilité sur laquelle s’appuient aujourd’hui près de 50% des serveurs à travers le monde. Moins de failles signifie également moins de virus. Virus qui font souvent exploser les coûts de maintenance de gros parcs informatiques publics et privés. Tant et si bien que le Japon, la Corée du Sud et la Chine, ont décidé de se débarrasser de Microsoft en développant leur propre système d’exploitation open source. Si la suprématie de Microsoft a encore de beaux jours devant elle, car il reste délicat pour de changer purement est simplement de système d’exploitation, Linux est un géant qui s’éveille. Il pourrait et devrait demain s’imposer comme le choix logique des générations futures.

Source : Afrik.com

mardi 1 mai 2007

Un internaute français vend son vote !

Un internaute français ne sait pas pour qui voter au second tour des présidentielles. Il vend son vote.
Un vote qui n'a, pour le moment, que 9 petits euros de valeur sur le site de ventes aux enchères eBay. "N'étant toujours pas décider, je vous laisse choisir à ma place pour qui j'irais voter ..." explique l'internaute qui signe son idée sous le pseudo d'"acatel86".
Une premiere en france, qui pourra bien donner des idées a d'autres élécteurs.
Pour rappel, l'acte de vendre son vote est illégal en France.

Web 2.0 : mythes et réalités

Web 2.0. Voila le terme à la mode, la promesse d’un nouveau web, d’une révolution comme d’une nouvelle version de l’internet. Phénomène réel reposant sur un changement technologique et une rupture d’échelle liée la croissance du nombre d’utilisateurs ou récupération marketing de technologies anciennes rafraichies par un nouvel engouement public, comme le regrettent François Briatte, François Hodierne ou Olivier Meunier ? Le web 2.0 préfigure-t-il seulement une bulle 2.0 ?

Difficile de comprendre également quel est ce web 2.0 dont tout le monde parle, tant les définitions semblent s’opposer. Comme le souligne l’animateur d’Homo-Numéricus : “On voit bien qu’il s’agit d’un même phénomène, mais aux multiples dimensions. Certains insistent sur la dimension technique, d’autre sur les pratiques éditoriales, d’autre encore sur la dimension sociologique.” D’un côté, il est vu comme le basculement des techniques vers des services, de l’autre il représente un nouveau réseau d’interaction sociale. Dans les deux cas pourtant, il replace l’utilisateur et ses relations avec les autres, plutôt qu’avec des contenus ou des machines, au centre de l’internet. Le web 2.0 est résolument relationnel.

L’éditeur Tim O’reilly rappelle certainement le mieux d’où vient la formule : à son origine, le terme “web 2.0″ capturait le sentiment commun selon lequel il se passait quelque chose de qualitativement différent sur le web d’aujourd’hui. Pour lui, comme pour l’ancien rédacteur en chef de Wired, Kevin Kelly, la clef du succès dans cette nouvelle étape de l’évolution du web réside dans l’intelligence collective. “Le web 2.0 repose sur un ensemble de modèles de conception : des systèmes architecturaux plus intelligents qui permettent aux gens de les utiliser, des modèles d’affaires légers qui rendent possible la syndication et la coopération des données et des services… Le web 2.0 c’est le moment où les gens réalisent que ce n’est pas le logiciel qui fait le web, mais les services !”

Vu par les techniciens de l’internet, le “nouveau” web a pour objectif de rendre les sites web compréhensibles par des machines via un ensemble de technologies (pour résumer, celles du “web sémantique”) qui permettent d’agréger ou de partager des services et des contenus, de refondre les interfaces, etc. Vu par les designers, le web 2.0 parle de l’amélioration de l’expérience utilisateur. Ainsi, pour Frédéric Cavazza, spécialiste d’utilisabilité et d’ergonomie, le web 2.0 combine, d’un côté, une amélioration des interfaces utilisateurs et de l’autre, des architectures plus flexibles, des protocoles de communication plus ouverts (web services), une interopérabilité plus poussée… Le web 2.0 repose sur une multitude de petites améliorations technologiques (la révolution AJAX, comme disait récemment encore Wired), ergonomiques (interfaces riches), sémantiques (micro-formats)… qui donnent des résultats d’une grande souplesse d’utilisation comme NetVibes par exemple, un agrégateur en ligne utilisant ces techniques.

A qui s’adresse en définitive le Web 2.0, se demande alors le consultant en “usabilité” Peter Merholz ? Aux ordinateurs, comme le clame Jeff Bezos d’Amazon, ou bien aux utilisateurs auxquels il confère un pouvoir nouveau ? Joshua Porter se range résolument du côté des utilisateurs : technologiquement, rien d’essentiel n’a changé sur l’internet depuis 10 ans. L’essence du “nouveau web” réside dans ce qu’en font aujourd’hui les gens. Pour lui, le web 2.0 c’est le partage de l’information, fondé sur des bases de données ouvertes qui permettent à d’autres utilisateurs de les employer.

Dannah Boyd, sociologue et chercheuse chez Yahoo!, s’intéresse moins à la distinction machines/humains qu’à la “glocalisation” : la glocalisation c’est quand un produit global est également adapté aux particularités locales, quand il restitue à la globalisation sa dimension sociale. En mettant en avant, par exemple, les Folksonomies qui permettent d’ajouter des mots clefs à des contenus, ou le rôle du remix, elle s’intéresse aux “nouvelles structures de réseau qui émergent des structures globales et locales”. Le web 2.0 donne aux gens la possibilité de trouver, organiser, partager et créer de l’information d’une manière à la fois personnelle et globalement accessible. Il est alors entendu comme une “variation structurale dans l’écoulement de l’information”.

Pour Ian Davis, enfin, le web 2.0 est une attitude, une philosophie d’ouverture sociale dont le but est d’abandonner le contrôle individuel sur les choses au profit de la participation du plus grand nombre.

Pour tous, le web 2.0 est une plate-forme d’innovation qui fait en quelque sorte du web un système d’exploitation. Richard Marcus, de Web 2.0 Explorer, met tout le monde d’accord : que ce soit celles des techniciens, des sociologues, des web designers, des philosophes, des éducateurs, des businessmen… toutes les définitions du web 2.0 comptent, comme le souligne aussi Richard MacManus qui en a répertorié beaucoup.

Le web 2.0 est social, est ouvert (ou il le devrait), il vous laisse le contrôle de vos données, il mélange le global au local. Le web 2.0 correspond à de nouvelles interfaces - de nouvelles manières de rechercher et d’accéder au contenu. Le web 2.0 est une plateforme - et pas seulement pour que les développeurs créent des applications comme Gmail ou Flickr. Le web 2.0 est une plateforme prête à recevoir les éducateurs, les médias, la politique, les communautés, pour pratiquement chacun en fait ![…] Le web 2.0 c’est tout cela et ne laissez personne vous dire que c’est l’une ou l’autre de ces définitions. Le web 2.0 parle des personnes, quand le web descend à eux.”

Dans son excellent article “Web 2.0 : la puissance derrière le battage médiatique” (”Web 2.0 : The Power Behind the Hype”), le webdesigner Jared M. Spool va dans le même sens : le web 2.0 n’est pas une chose, mais une collection d’approches, qui toutes convergent sur un monde de nouveaux développements. Ces approches, y compris les API, RSS, Folksonomies, Réseaux sociaux…, proposent soudainement aux créateurs d’applications une nouvelle manière d’approcher des problèmes complexes avec des résultats étonnemment efficaces.

Le web 2.0 n’est pas une révolution technique accessible aux seuls développeurs. Il repose sur des outils simples d’utilisation centrés sur l’utilisateur. J’ajouterais même, sur l’utilisateur en réseau. Car cet individu n’est pas atomisé, mais bien relié aux communautés qui sont les siennes.
La souplesse du concept englobe un peu toutes les innovations actuelles du web en en régénérant l’attrait. Un peu comme les modernes chassent les modernes. Un peu comme l’internet nouvelle nouvelle génération chasse l’internet nouvelle génération, lui-même chassant l’internet… Tout en permettant à tous de coexister.

Dans ce nouveau départ, dans cette nouvelle vague de réappropriation du web, ne faut-il pas voir tout simplement que l’internet devient enfin un horizon où projeter ses attentes. Que le web devient non plus une aventure technologique, mais bien une aventure humaine.