Le spécialiste européen de la formation certifiante en informatique et management pour les entreprises

Que diable 2010 nous réserve-t-elle ?

Une décennie qui s'achève comme elle avait commencé : en crise. En avril 2000, l'explosion de la bulle Internet a secoué l'industrie informatique et des télécoms jusqu'en 1992/93. En 2007, les premiers soubresauts d'une nouvelle crise se font sentir pour se développer durant l'année suivante. Cette nouvelle crise, beaucoup plus grave et globale celle-là, se déclare « officiellement » avec fracas par la faillite de la banque américaine Lehmann Brothers le 15 septembre.

2009 aura donc été une année difficile avec dans certains secteurs de l'IT des baisses de 10, voire de 20 %, de ventes de certains produits comme, par exemple, les serveurs ou les PC.  Il y a 10 ans, Internet était encore une technologie en devenir qui n'avait pas encore vraiment impacté les entreprises et, encore moins, les DSI. Aujourd'hui, Internet est un prolongement naturel du système d'information des entreprises. Et il n'est quasiment plus d'activité qui ne s'appuie sur ces technologies.

En ce début d’année, penchons nous sur les perspectives détaillées dans les récentes études menées par Gartner, Forrester et consorts :

Les 10 technologies stratégiques* pour 2010 selon le Gartner

*Une stratégie technologique est définie par le Gartner comme ayant un impact significatif sur l'activité et le développement de l'entreprise dans les 3 ans à venir. Les éléments qui déterminent ce que le Gartner appelle un impact significatif incluent un potentiel de rupture sur l'IT ou le métier, la nécessité d'un investissement financier important ou le risque que pourrait entraîner une adoption tardive. Ces technologies impactent les plans et autres initiatives de long terme. Elles sont stratégiques parce qu'elles sont aujourd'hui suffisamment matures pour une mise en œuvre et une large adoption ou parce que leur utilisation précoce peut apporter un avantage compétitif.

1. Cloud computing

Un nouveau modèle informatique dans lequel les fournisseurs proposent un ensemble de services aux entreprises ou aux particuliers. Les services de Cloud Computing peuvent être « consommés » de plusieurs manières pour développer une application ou mettre en œuvre un service. Bien sûr, le Cloud Computing ne supprime pas les coûts, mais en réalloue certains et en diminue d'autres.

2. Technologies analytics avancées

L'optimisation et la simulation utilisent les outils et les modèles analytiques pour maximiser l'efficacité des processus métier et des décisions en examinant des résultats et des scénarios alternatifs, avant, pendant et après la mise en œuvre et  exécution de ces processus.

Ceci peut être regardé comme troisième étape dans le mécanisme de prise de décisions opérationnelles. Les règles fixées et les règlementations établies autorisent des décisions sur la base d'informations fournies au bon moment. Ces informations peuvent être issues d'applications de type CRM, ERP ou d'autres applications.

3. Virtualisation du poste client

La virtualisation apporte de nouvelles manières de mettre en œuvre les applications sur le poste client. En conséquence, le choix du type matériel de PC et même du système d'exploitation devient moins critique. Les entreprises devraient pro activement établir une feuille de route pour les 5 à 8 prochaines années sur l'évolution du poste client incluant la prise en compte des standards, le type de possession et le support ;  système d'exploitation et des applications, déploiement et mises à jour ; et plans de gestion et de sécurité pour contrôler la diversité des systèmes et des environnements.

4. Green IT

L'informatique et les technologies de l'information peuvent être utilisées pour des « initiatives vertes ». L'utilisation de l'informatique, en particulier au sein des travailleurs du savoir peut considérablement augmenter le niveau de prise en compte des problématiques vertes. Les initiatives possibles dans ces domaines incluent la dématérialisation de tous types de documents, la réduction des voyages professionnelles et la mise en œuvre partielle du télétravail. L'informatique peut également fournir les outils analytiques permettant de réduire la consommation d'énergie dans des activités sources de rejet de CO2 comme le transport des marchandises.

5. Remodelage du data center 

 Dans le passé, les principes de conception des centres de traitement des données étaient simples : estimation de la croissance des besoins pour les 15 à 20 ans à venir, puis construction du data center répondant à ces besoins. Les data centers d'aujourd'hui sont construits sur de grands espaces équipés de systèmes d'alimentation redondants (Uninterruptible power supply), des systèmes de refroidissement à eau ou à air. Cependant, les coûts sont réellement inférieurs si les entreprises adoptent une approche dite Pod-based (Performance Optimized Data Center) pour la construction et à l'extension des data centers. Si l'on pense que 1000 m² sont nécessaires sur le cycle de vie du data center, alors il faut concevoir l'emplacement pour le supporter, mais construire seulement ce qui est nécessaire à horizon cinq à sept ans. La réduction des dépenses de fonctionnement d'exploitation, qui constituent un élément non trivial des dépenses IT, permet de libérer des ressources financières pouvant être utilisées à d'autres projets ou investissements dans d'lT ou même dans les autres activités de l'entreprise.   

6. Réseaux sociaux
 

 Les salariés ne veulent pas avoir à gérer deux environnements informatique distincts : un pour leurs activités personnelles et un autre pour leur activité professionnelle. Les entreprises doivent se concentrer sur l'utilisation des réseaux sociaux dans l'entreprise et la participation et l'intégration avec les communautés externes publiques. Ne pas ignorer le rôle des réseaux sociaux pour réunir différentes communautés.

7. Sécurité et suivi d'activité. 
 

 Traditionnellement, la sécurité s'est concentrée à mettre une barrière permettant de s'isoler de l'extérieur, mais elle a évolué vers des activités de surveillance et les systèmes d'identification. Les professionnels de sécurité de l'information doivent relever le défi de détecter l'activité malveillante dans un flot constant d'événements discrets habituellement associés à un utilisateur autorisé et sont issus de sources multiples en termes de réseau, de systèmes et d'applications. En même temps, les services spécialisés de sécurité doivent faire face demandes croissantes d'analyse d'activité en vue de rédiger des rapports imposés par les différentes réglementations en vigueur. Une large palette d'outils surveillance et d'analyse (redondant sur les plans des fonctionnalités) aide des entreprises mieux à détecter et étudier des activités suspectes - souvent avec des alertes en temps réel. En comprenant les forces et les faiblesses de ces outils, les entreprises peuvent les utiliser au mieux pour défendre les intérêts de leur entreprise et satisfaire aux exigences de la réglementation.

8. Mémoire Flash

La mémoire Flash n'est pas nouvelle, mais elle est en train d'évoluer dans les différents niveaux des systèmes de stockage. La mémoire Flash est un dispositif de mémoire à semi-conducteurs, désormais bien connus dans les clés USB et autres cartes d'appareils photo numérique. Elle est beaucoup plus rapide que le disque magnétique traditionnel, mais encore bien plus chère, même si le différentiel se réduit peu à peu. Grâce à cette réduction de prix, cette technologie devrait connaître un taux de croissance annuel supérieur à 100 % dans les prochaines années et devenir stratégique dans les beaucoup de secteurs IT. En outre, elle constitue un niveau supplémentaire dans hiérarchie du stockage pour les serveurs et les postes  client dont les avantages principaux sont un faible volume, une faible dissipation calorifique, un niveau de performance et de fiabilité.

9. Virtualisation pour la disponibilité
 

 La virtualisation fait partie des technologies stratégiques de ces dernières années. Elle est citée cette année dans la mesure où elle peut faciliter des opérations de migration d'application. Le processus de "migration live" permet de déplacer une machine virtuelle d'un noeud physique à un autre dans un temps très court (inférieur à un timeout TCP), ce qui permet au processus d'être totalement transparent pour les applications.Ce type de mécanisme peut supprimer la nécessité d'utiliser du matériel à haute fiabilité et à tolérance de pannées, des logiciels  de fail-over tout en assurant aux besoins croissants de disponibilité des systèmes.  

10. Applications mobiles
 

 A la fin de d'année 2010, 1.2 milliard de personnes détiendront ce que l'on appelle aujourd'hui les smartphones. Pour le simple iPhone qui constitue l'archétype de ce type de matériel, Il des dizaines de milliers d'applications sont déjà disponibles et ce malgré un marché relativement limité. Cela prendra encore du temps pour avoir des applications et autres solutions capables d'être mis en œuvre sur des PC et des smartphones. Une plus grande compatibilité au niveau des systèmes d'exploitation et des processeurs permettrait d'accélérer le développement et la disponibilité d'applications pour les mobiles.

Les tendances de sécurité à surveiller de près en 2010 selon Symantec

Que s'est-il passé sur le plan de la sécurité en 2009 et de quoi 2010 sera-t-il fait ? C'est ce qu'examine Symantec dans son rapport annuel MessageLabs Intelligence Report qui fait le point des techniques de survie imaginées par les cybercriminels et décrit comment leurs activités ont évolué en termes de volume et de diversité.

 L'activité de spams a connu des turbulences tout au long de l'année, avec des volumes moyens atteignant 88 % des e-mails échangés. Plus de 80 % des 107 milliards de courriers indésirables distribués chaque jour en moyenne dans le monde étant envoyés par des ordinateurs infectés, la fermeture de FAI hébergeant des botnets, comme McColo fin 2008 et Real Host en août 2009, semble inciter les botnets à réévaluer et améliorer leur stratégie de commande et de contrôle pour que la restauration ne prenne plus que quelques heures et non plus des semaines, voire des mois.

Il est très probable qu'en 2010 les botnets soient plus autonomes et intelligents, avec chaque nœud comportant un programme autonome qui lui permette de coordonner et de prolonger sa propre survie.

Les botnets ont continué de dominer le paysage de la cybersécurité en 2009. Les dix botnets les plus développés, dont Cutwail, Rustock et Mega-D, contrôlent désormais au moins cinq millions d'ordinateurs infectés. Cutwail a dominé l'univers des spams et des programmes malveillants en 2009, avec 29 % de tous les spams en circulation ou 8 500 milliards de spams envoyés entre avril et novembre 2009. Cutwail a également utilisé sa force pour distribuer des e-mails comportant le cheval de Troie Bredolab, déguisé en fichier .zip joint.

L'une des principales menaces de 2009, le cheval de Troie Bredolab, permettait à celui qui l'envoyait de prendre le contrôle total de l'ordinateur attaqué, qui pouvait alors être utilisé pour déployer d'autres programmes malveillants, logiciels espions et publicitaires du botnet sur l'ordinateur de la victime. Le pourcentage des spams relayant le cheval de Troie Bredolab était en augmentation constante fin 2009 et a culminé en octobre 2009, avec des estimations portant à 3,6 milliards le nombre d'e-mails de diffusion de Bredolab en circulation.

En plus de la crise financière mondiale, beaucoup de spams en 2009 étaient inspirés de divers autres événements, occasions festives ou encore actualités, comme la St. Valentin, la pandémie de grippe A/H1N1 et le décès de célébrités comme Michael Jackson ou Patrick Swayze. Les créateurs de programmes malveillants et auteurs de campagnes 419 de spams de demande d'avances financières ont rivalisé d'imagination cette année. Les premiers exemples autour de Michael Jackson sont apparus quelques jours seulement après l'annonce de son décès, dont un cheval de Troie brésilien masqué dans des liens hypertexte malveillants.

Enfin les technologies CAPTCHA (Completely Automated Public Turing test to tell Computer and Humans Apart) ont occupé le devant de la scène cette année tandis que des outils de rupture de CAPTCHA devenaient accessibles sur le marché souterrain, permettant aux cybercriminels de créer de très grands nombres de comptes réels sur les sites de messagerie électronique et instantanée, ainsi que de réseaux sociaux. On constate également un nombre croissant d'entreprises employant de vrais individus 24 heures sur 24 pour créer de vrais comptes sur les grands sites de messagerie électronique.

Le poste est souvent présenté comme un job de traitement de données, où chaque employé peut prétendre à recevoir deux à trois dollars pour 1 000 comptes créés ; ces comptes sont ensuite vendus à des spammeurs contre 30 à 40 dollars. Certains grands sites cherchent des alternatives aux lettres et chiffres distordus. Certains s'intéressent à des grandes bibliothèques de photos, qui demandent à l'utilisateur une analyse ou une interaction impossible pour un programme informatique.

Quelles tendances pour 2010 ? :

1. Un antivirus ne suffit pas : compte tenu de l'intensification des menaces polymorphes et de l'explosion des variantes uniques de programmes malveillants en 2009, l'industrie s'est rapidement rendu compte que les approches traditionnelles des antivirus (avec bases de données des signatures de fichiers et aux fonctionnalités heuristiques/comportementales) n'assurent plus une protection suffisante contre les menaces actuelles. Nous avons atteint un point d'inflexion où, dans un temps donné, il se crée davantage de nouveaux programmes malveillants que de programmes légitimes. Dans ce contexte et à ce stade, il ne rime plus à rien de se concentrer uniquement sur l'analyse des programmes malveillants. Les approches de sécurité les plus performantes en 2010 seront celles qui porteront sur l'ensemble des fichiers logiciels, à l'image de la nouvelle technologie de sécurité basée sur la réputation.

2. L'ingénierie sociale comme principal vecteur d'attaque : les agresseurs s'en prennent de plus en plus à l'utilisateur final directement en l'incitant à télécharger des programmes malveillants ou à divulguer des informations sensibles sous couvert d'un démarchage apparemment totalement innocent. La popularité de l'ingénierie sociale s'explique, du moins en partie, par le fait que peu importent le système d'exploitation et le navigateur Web installés sur l'ordinateur de la victime, puisque c'est l'utilisateur en tant que tel qui est ciblé et pas nécessairement les vulnérabilités que peut présenter sa machine. L'ingénierie sociale est d'ores et déjà un des premiers vecteurs d'attaque utilisés et Symantec estime que le nombre des tentatives d'attaques au moyen des techniques d'ingénierie sociale augmentera à coup sûr en 2010.

3. Les fournisseurs de logiciels de sécurité factices redoublent d'efforts : en 2010, ceux qui propagent des scams de logiciels de sécurité factices  passeront à la vitesse supérieure, allant jusqu'à détourner l'ordinateur d'une victime, le rendre inutilisable et demander une rançon pour rendre la main. La prochaine évolution, moins radicale, portera probablement sur des logiciels non explicitement malveillants mais au mieux douteux. Par exemple, Symantec a déjà observé que des fournisseurs de faux antivirus vendent des copies de logiciels antivirus gratuits dont ils changent simplement la marque pour se les approprier. Dans ce cas, l'utilisateur obtient bien ce qu'il a payé, mais il aurait pu télécharger gratuitement le même logiciel ailleurs.

4. Les applications de tiers associées aux réseaux sociaux seront la cible de fraudes : avec la popularité des sites de réseaux sociaux qui devrait se confirmer en 2010, il est probable que l'on assiste à une recrudescence des fraudes à l'encontre des adeptes de ces sites. Dans la même veine, les propriétaires de ces sites vont probablement instaurer des mesures proactives pour contrer ces menaces. Dans ce contexte et à mesure que ces sites proposent volontiers l'accès à leurs API à des développeurs indépendants, les agresseurs vont probablement cibler les vulnérabilités des applications de tiers pour toucher les comptes des utilisateurs des réseaux sociaux. C'est ce qui s'était déjà passé avec les plug-ins de navigateurs à mesure que les navigateurs Web renforçaient leur sécurité.

5. Windows 7 dans les mailles du filet des agresseurs : Microsoft a déjà distribué les premiers correctifs de sécurité pour son nouveau système d'exploitation. Tant que des hommes programmeront du code informatique, les logiciels seront faillibles quand bien même les tests précédant la commercialisation auront été pointus et complets. Et plus le code est complexe, plus le risque qu'on ne détecte pas toutes les vulnérabilités est grand. Le nouveau système d'exploitation de Microsoft ne fait pas exception, et plus Windows 7 se généralisera en 2010, plus les assaillants trouveront les moyens d'en abuser les utilisateurs.


6. Augmentation des botnets Fast Flux :
« Fast flux » est une technique qu'emploient certains botnets, comme Storm, pour masquer des sites de phishing et autres sites Web malveillants derrière un réseau en évolution permanente d'hôtes corrompus servant de proxy. L'association réseau peer-to-peer, commande et contrôle distribués, équilibrage de charge basé sur le Web et redirection de proxy complique le traçage de la position géographique d'origine des botnets. A mesure que les dispositifs de lutte contre les botnets traditionnels en limitent l'efficacité, on risque d'assister au succès de cette technique d'attaque.


7. Les services de raccourcissement d'url, futurs meilleurs amis des adeptes du phishing :
comme les utilisateurs n'ont souvent aucune idée de là où une URL raccourcie va les emmener, les adeptes du phishing maquillent volontiers des liens et l'utilisateur lambda a tout intérêt à y réfléchir deux fois avant de cliquer dessus. Symantec constate déjà une tendance à utiliser cette tactique pour distribuer des applications trompeuses, et ce n'est que le début. Les spammeurs misant volontiers sur l'obscurcissement pour passer au travers des filtres antispam, il est probable qu'ils se servent également des services de raccourcissement d'url pour perpétrer leurs délits.

8. Intensification annoncée des logiciels malveillants ciblant les Mac et les terminaux mobiles : le nombre des attaques d'un système d'exploitation ou d'une plate-forme en particulier est directement proportionnel à la part de marché du système ciblé. En effet, ceux qui créent des programmes malveillants le font pour l'argent et privilégient bien entendu la poule aux œufs d'or. En 2009, ils ont davantage ciblé les Mac et les smartphones, à l'image du botnet Sexy Space conçu pour exploiter le système d'exploitation de terminal mobile Symbian et du cheval de Troie OSX.Iservice ciblant les utilisateurs de Mac. A mesure que les ventes de Mac et de smartphones augmenteront en 2010, davantage d'agresseurs passeront du temps à créer des programmes malveillants pour exploiter ces terminaux.

9. Les spammeurs changent les règles : dans le contexte économique défavorable, les individus seront de plus en plus nombreux à vouloir profiter des insuffisances de la législation, le CAN SPAM Act par exemple. Les entreprises seront donc tentées de vendre des listes d'e-mails sans accord à des agences de marketing peu scrupuleuses qui en profiteront pour bombarder les destinataires de spams.

10. Les volumes de spams vont continuer de fluctuer au gré de l'adaptation des spammeurs : depuis 2007, le volume des spams a augmenté de 15 % en moyenne. Ce fort taux de développement des e-mails indésirables va forcément ralentir à long terme, mais pour le moment les spammeurs ne sont pas prêts à abandonner la manne économique qu'ils y voient. Les volumes des spams vont continuer de fluctuer en 2010 tandis que les spammeurs continuent de s'adapter à la sophistication des logiciels de sécurité, ainsi qu'aux mesures que prennent les FAI responsables et les administrations du monde entier.

11. Logiciels malveillants spécialisés : en 2009, on a découvert des logiciels malveillants ultra spécialisés conçus pour exploiter certains distributeurs de billets. Des initiés savaient forcément comment fonctionnent ces distributeurs et comment faire pour les abuser. Cette tendance devrait se confirmer en 2010, quitte à envisager des attaques de systèmes de vote électronique, pour les élections mais aussi pour les votes par téléphone, comme ceux utilisés par les émissions de téléréalité et les concours.

12. Perfectionnement de la technologie CAPTCHA : les spammeurs vont avoir de plus en plus de mal à craquer les codes CAPTCHA au moyen de processus automatisés. Il est donc probable, essentiellement dans les pays en voie de développement, que l'on recrute des individus pour créer manuellement de nouveaux comptes d'envoi de spam, en vue de contourner la technologie perfectionnée. Symantec estime que les personnes embauchées pour créer manuellement ces comptes seront payées moins de 10 % de ce qu'il en coûtera aux spammeurs, les propriétaires des comptes facturant 30 à 40 dollars les 1 000 comptes.

13. Spam de messagerie instantanée : tandis que les cybercriminels cherchent de nouveaux moyens pour contourner les technologies CAPTCHA, les attaques des applications de messagerie instantanée vont se multiplier. Les menaces d'IM (Instant Messenger) consisteront en majorité en des messages au contenu indésirable comportant des liens malveillants, avec principalement pour objectif de corrompre de véritables comptes IM. D'ici fin 2010, Symantec prévoit qu'un message IM sur 300 comportera une URL. De même, en 2010, Symantec prévoit que, de manière générale, un lien hypertexte sur 12 pointera vers un domaine connu pour héberger des logiciels malveillants. Un lien hypertexte sur 12 figurant dans des messages IM comportera donc un domaine déjà identifié comme suspect ou malveillant. A titre de comparaison,  mi-2009, le chiffre était d'1 lien hypertexte sur 78.

14. Multiplication des spams dans d'autres langues que l'anglais : les connexions haut débit se généralisant partout dans le monde, et plus particulièrement dans les pays en voie de développement, de plus en plus de spams proviendront de pays non-anglophones. Dans certains pays d'Europe, Symantec estime que les spams localisés pourront représenter plus de la moitié de tous les spams en circulation.(Source ITR Manager)

 La reprise sera là en 2010, décide Forrester

 Selon le cabinet d'analystes, le rebond des ventes informatiques a débuté dès la fin 2009, et se confirmera cette année. Le matériel, particulièrement éprouvé par la crise, va rattraper son retard à marche forcée.

 C'est fini. Le cauchemar a pris fin. Les hirondelles sont de retour etle marché informatique se prépare à sortir du gouffre. Il aurait même commencé au dernier trimestre 2009, affirme Andrew Bartels, vice-président du cabinet d'analystes Forrester, qui avoue cependant manquer de chiffres pour étayer sa thèse. Il évoque cependant l'existence d'une « évidence croissante » selon laquelle la reprise économique a débuté dans tous les secteurs, aux Etats-Unis et ailleurs, fin 2009.

 + 8,1 % pour le marché mondial : Du coup, Andrew Bartels, dans une étude publiée par le cabinet Forrester, prédit pour 2010 un net rebond des dépenses informatiques : 6,6 % pour les Etats-Unis, 8,1 % pour le marché mondial en dollars (et seulement 5,6 % en monnaies locales). Le matériel se montrera le plus dynamique, suivi du logiciel et, en dernier lieu, des services. L'heure est globalement à l'optimisme : dans ses précédentes études, Forrester envisageait des croissances plus modérées pour les trimestres à venir.
Il n'était que temps que la tendance se retourne : le naufrage pur et dur menaçait. En 2009, sur le marché américain, les dépenses informatiques ont enregistré une baisse de 16,3 % sur le matériel et de 10,4 % sur les équipements réseau et télécoms. Tout le monde a figé ses achats pour conserver sa trésorerie.

 Le matériel en tête de la croissance : Après cette période de vaches maigres, l'urgence consistera, pour les entreprises et les gouvernements, à mettre à jour leur parc matériel. Il s'agit, en effet, d'un des investissements les plus simples à couper : on cesse de commander PC, serveurs* et matériels de stockage (alors qu'il est plus difficile de suspendre sa maintenance logicielle ou ses contrats de services). Ceci étant, même avec une croissance des ventes prévue dépassant les 9 %, on restera, en 2010, en dessous de la valeur enregistrée en 2008 ou en 2007. Le logiciel, pour sa part, devrait remonter à peu près à ses niveaux de 2008.
Le marché dans son ensemble dépasserait les 1 630 milliards de dollars, très nettement au-dessus de son niveau de 2007. L'Europe connaîtra le dynamisme le plus marqué… calculé en dollars. En effet, le Vieux Continent investira en réalité moins que les Etats-Unis, comme d'habitude, mais la faiblesse du dollar compensera.

 *Serveurs : 2010 l’année du rebond : Après une année plutôt calamiteuse avec des baisses comprises entre 10 et 20 % liées à des restrictions budgétaires des DSI, 2010 devrait être l'année du rebond et de développement de technologies : appliances pour applications spécifiques, systèmes incluant les fonctions serveurs, stockage et réseaux,  développement des serveurs à base de microprocesseurs quadri sockets et, chez IBM, annonce du z11 élargissant ainsi la famille des mainframes.
La reprise de l'économie de manière générale et les évolutions des derniers trimestres laissent entrevoir un rebond des ventes de serveurs en 2010. Il faut rappeler que les ventes en 2009 ont chuté de manière très significative, les entreprises préférant surseoir l'achat de nouveaux matériels. Du côté des processeurs, la famille des processeurs Nehalem EP d'Intel a permis de doper les ventes de serveurs bi socket, notamment dans des opérations de consolidation considère le cabinet 451 Group. En 2010, les quadri sockets pourraient s'imposer et répondre à la majorité des besoins. Ce qui pourrait avoir des répercutions sur les ventes de serveurs à base de processeur Risc ainsi que ceux utilisant les processeurs Itanium d'Intel.

 Des systèmes plus packagés : La guerre des systèmes d'exploitation s'est relativement estompé avec des positions acquises par les différents protagonistes : Windows, Unix et Linux, les parts de marché respectives au niveau des serveurs d'entreprise s'établissant à 40 % pour Windows, 30 % pour Unix et 20 % pour Linux. Le cabinet 451 rappelle qu'IBM a même annoncé en 2009 une machine z dans la famille System z10 Business Class fonctionnant uniquement sur Linux. La grande question est de savoir ce qu'il adviendra de Solaris qui, lorsque l'acquisition de Sun par Oracle aura été acceptée par la Commission européenne, sera sous la coupe d'Oracle. Quelle sera alors la stratégie de l'éditeur de logiciel : un simple maintien ou une politique plus volontariste ?
L'arrivée de Cisco sur le marché des serveurs n'a pas encore changé le marché des serveurs, mais il ouvre la voie vers une offre de nouveaux matériels plus packagés incluant les fonctions serveur, stockage et réseaux sous forme d'appliances ou de serveurs lame. Les annonces d'HP avec HP Matrix et le rachat de 3Com vont dans ce sens.  IBM, Dell et Sun devraient aussi proposer des serveurs spécialisés et optimisés pour des travaux particuliers. L'annonce de la Smart Analytics Platform d'IBM constitue un bon exemple de cette évolution.

Quelques jalons pour 2010 :
- Après avoir finalisé l'acquisition de Sun, Oracle va-t-il rester sur le marché des serveurs ? (Il est inutile de rappeler qu'Oracle n'a pas d'expérience dans le matériel informatique et la seule tentative avec les Network Computer (NC) s'est soldée par un échec). Il est peu probable qu'Oracle se retire du marché des serveurs, l'éditeur pourrait annoncer des serveurs spécialisés sous forme d'appliances ;
- Les grands constructeurs de serveurs devraient proposer leurs propres versions d'Unified Computing de Cisco. IBM, Dell et Fujitsu devraient renforcer leur partenariat avec des spécialistes réseaux ;
- Les machines x86 bi sockets vont s'imposer sur le marché des serveurs de milieu et de haut de gamme :
- Les serveurs lame continuent à s'imposer en raison des nombreux avantages qu'ils apportent en raison de leur modularité, de leur efficacité en matière d'alimentation, et de leurs configurations flexibles ; Ils vont continuer à gagner du terrain face aux serveurs traditionnels.

 Evolution du secteur IT : Fusions / acquisitions au plus bas depuis 2004, selon le cabinet 451 Group


Malgré quelques rachats assez spectaculaires, 2009 aura été une année relativement calme du point des acquisitions parmi lesquels on peut citer Sun par Oracle, Perot Systems par Dell, 3Com par HP ou encore Omniture par Adobe. « Avec une situation économique des plus mauvaises depuis la grande dépression de 1929, peu d'entreprises étaient d'humeur à faire des emplettes » résume le cabinet 451 Group dans une série de rapport de synthèse sur les fusions et acquisitions (F&A) dans le secteur IT.
Après le déclenchement  de la crise datée en général au 15 septembre 2008 par la faillite de la banque Lehmann Brothers, les valeurs ont commencé une chute pendant plusieurs mois qui auraient pu être propices à des acquisitions en grand nombre. Mais vraisemblablement, la plupart des entreprises ont sans doute été plus focalisés par mettre en ordre de bataille leur force pour surmonter ou contourner les effets de la crise plutôt que pour chercher des consolidations externes. Toutefois certaines d'entre elles ont profité de la période pour chercher les bonnes affaires.
Globalement le cabinet 451 Group a recensé sur les 11 premiers mois de l'année quelque 2 700 opérations de fusions & acquisitions pour un montant total de 143 milliards de dollars. Un niveau nettement inférieur de ce que l'on a observé de 2004 à 2008. Le pic a été réalisé en 2006 avec plus de 4000 opérations et un montant global de plus de 450 milliards de dollars. Sur le plan des F&A, 2009 nous rappellera les années de crise 2002 et 2003 où les investisseurs avaient été asséchés à la suite de l'explosion de la bulle Internet et de la crise qui avait touché le secteur des télécoms.

Explosion d'une ancienne étoile :Parmi les faillites spectaculaires, on a assisté à celle de Nortel Networks dont la capitalisation boursière a culminé un temps à 250 milliards de dollars et qui s'est mis en janvier 2009 sous la protection du chapitre 11 de la loi sur les faillites américaines.
La suite est plutôt déprimante : Le 25 février 2009, Nortel Networks annonce la suppression de 3 200 emplois de par le monde, soit environ 10% des emplois.
- En juillet 2009, Nortel Networks a cédé l'un de ses divisions à Avaya pour 475 M$ ;
- En juillet 2009, Nortel a décidé de céder sa division Carrier Networks en la mettant aux enchères. Ericsson a fait la meilleure proposition, mais la cession de la division devait être approuvée par le juge américain responsable de la faillite de Nortel. Le 28 juillet 2009, ce juge a avalisé cette transaction, malgré l'opposition de certains politiciens fédéraux canadiens ;
- Enfin, en décembre 2009, Nortel a obtenu l'approbation des tribunaux pour la cession de certaines de ses activités, dont ses divisions de réseaux optiques et de transport Ethernet à l'américaine Ciena, la vente de ses activités GSM en Amérique du Nord à Ericsson, de ses activités GSM hors Amérique du Nord, et activités GSM-R à la société Kapsch.
Parmi les autres faillites significatives ont peut citer celles de BearingPoint, de Spansion et de SGI. Cette dernière, anciennement baptisé Silicon Graphics fut vers la fin des années 80 une des startups les plus en vue du secteur IT. Elle a été racheté par la société Rackable Systems qui a eu le bon sens de rependre le nom SGI tant la marque de cette dernière reste forte. Une démarche qui rappelle celle de Tera Computer lors du rachat en 2000 de Cray.

Naissance d'un acteur global : Fujitsu Technology Solutions, anciennement Fujitsu Siemens, est né d'un rachat total par Fujitsu de la joint-venture entre les sociétés japonaises et allemandes. Annoncée en novembre 2008, cette opération a été concrétisée comme prévue au 1er avril 2009. Siemens AG et Fujitsu avaient en effet conclut un accord selon lequel le constructeur japonais procéderait à l'acquisition des 50% que possédait la firme allemande dans la joint-venture Fujitsu-Siemens Computer(FSC) pour un montant de 450 M€. Ainsi, c'est un constructeur informatique européen qui a disparu. Fujitsu Technologies Solutions constitue le quatrième fournisseur global sur le secteur IT derrière HP, IBM et Dell et un chiffre d'affaires de près de 50 milliards de dollars de chiffre d'affaires et plus de 185 000 salariés. Cette évolution permet aujourd'hui au groupe Fujitsu de se concentrer sur les métiers de l'infrastructure et des serveurs.
Autre acquisition extrêmement spectaculaire, celle de Sun par l'éditeur de logiciels Oracle. Cette transaction n'est pas encore finalisée car elle est encore soumise à l'approbation des autorités européennes. Début septembre, la Commission européenne avait ouvert une enquête approfondie, en vertu du règlement CE sur les concentrations, sur le projet de rachat de Sun par Oracle. L'enquête initiale menée par la Commission sur ce marché avait alors révélé que l'opération envisagée « soulève des doutes sérieux quant à sa compatibilité avec le marché unique, en raison de problèmes de concurrence sur le marché des bases de données ». Suite à quoi, la Commission décidait d'ouvrir une enquête approfondie ne préjuge pas l'issue de l'instruction.
Ces semaines d'enquêtes approfondies ont donc permis à la Commission de se forger une opinion plus positive dont elle a fait la déclaration en début de semaine. « L'annonce par Oracle des actions engagées par Oracle auprès des entreprises, des développeurs et des utilisateurs de MySQL (Oracle Makes Commitments to Customers, Developers and Users of MySQL) est un élément important à prendre en compte dans l'enquête en cours ».  Dans ces conditions, Nelly Kroes s'est déclaré optimiste quant à l'issue du processus engagé.

HP et Dell se renforce respectivement dans les réseaux et les services : Trois autres acquisitions sont à mentionnées : HP-3Com, Dell-Perot et EMC-Data Domain. Les deux premières vont permettent respectivement à HP et à Dell de se renforcer sur des domaines stratégiques. Avec 3Com, HP dope sérieusement sont offre réseaux labellisation sous la marque ProCurve et à se présenter comme un concurrent sérieux de Cisco. De son côté, l'acquisition de la firme texane Perot Systems (l'autre firme créée par Ross Perot EDS avait été rachetée en 2008 par HP) par Dell permet à ce dernier de se donner une dimension significative dans le domaine des services qui semblent être aujourd'hui un volet indispensable aux acteurs globaux du secteur IT. Enfin, l'acquisition de Data Domain par EMC, qui a soufflé le rachat à NetApp, permet à ce dernier de se renforcer dans le domaine de la déduplication.

Côté logiciels, on peut noter une opération de grande envergure, le rachat d'Omniture par Adobe pour 1,8 milliard de dollars. Il s'agit là d'unir des ressources dans les domaines du marketing online du premier aux outils de développements et de design de contenus en ligne. Le rapprochement des deux est rationnel, considère le cabinet 451 Group qui ajoute cependant qu'Adobe n'a pas encore tous les éléments pour réunir les deux domaines.

Pour finir, nous avons à coeur de mettre l’accent sur une récente étude signée IBM sur les prochaines évolutions qui marqueront nos villes, en termes de modes de vie, de travail et d’organisation. Il est à noter que cette étude va dans sens choisi par EGILIA dans son engagement fort dans le développement durable et le respect de l’environnement !
 

5 innovations qui changeront les villes dans les 5 prochaines années


En 2007, plus de 50 % des habitants de la planète habitent dans les villes et 450 villes dans le monde ont dépassé le seuil d'un million d'habitants. Face aux formidables défis posés par ces bouleversements, IBM présente une série d'innovations qui peuvent modifier les modes de vie, de travail et d'organisation dans les villes dans les 5 à 10 prochaines années : 
Chaque année, 60 millions de personnes migrent dans les zones urbaines. Le monde connaît une urbanisation sans précédant et l'année dernière a été marquée par un phénomène important : la population mondiale vivant dans les zones urbaines était pour la première fois majoritaire. Pour ces raisons, le quatrième rapport « 5 in 5 » d'IBM se focalise sur le thème de la ville et propose une vision plutôt optimiste au moment même où le sommet de Copenhague sur les changements climatiques nous renvoie une réalité plus sombre.

- Les villes bénéficieront de systèmes de santé plus performants pour combattre les maladies transmissibles.
La densité de population rend les villes très exposées aux maladies transmissibles. Mais à l'avenir, les officiels de santé pourront savoir précisément quand, où et comment les maladies se développent, et même les prochaines zones affectées. Les scientifiques fourniront aux responsables des municipalités, aux hôpitaux, aux écoles et aux entreprises les outils pour mieux détecter, suivre, se préparer aux infections telles que le virus H1N1 ou la grippe saisonnière, et les détecter.
Un « Internet Santé » va voir le jour, où des informations médicales anonymes, contenues dans les dossiers médicaux électroniques, seront partagées de façon sécurisée pour réduire le développement des maladies et préserver la santé des habitants. IBM travaille déjà en collaboration avec des organisations comme la Nuclear Threat Initiative (Initiative contre la menace nucléaire - NTI), la Global Health and Security Initiative (Initiative pour la sécurité sanitaire mondiale) et le Middle East Consortium on Infectious Disease Surveillance (Consortium du Moyen-Orient sur la surveillance des maladies infectieuses - MECIDS), pour standardiser les méthodes de partage d'informations et d'analyse de déclenchement des maladies infectieuses.

- Les immeubles urbains seront capables de comprendre et réagir comme des organismes vivants.
Tandis que l'emménagement dans les immeubles urbains atteint des taux record, ces bâtiments vont être conçus de façon plus intelligente. Aujourd'hui, la plupart des systèmes qui constituent un bâtiment - chauffage, eau, évacuation des eaux usées, électricité, etc. sont gérés indépendamment les uns des autres. A l'avenir, la technologie permettant de gérer ces immeubles fonctionnera à la manière d'un organisme vivant qui peut comprendre et réagir rapidement, pour protéger les citoyens, sauvegarder les ressources et réduire les émissions de CO2.
Grâce à des milliers de capteurs inclus dans les bâtiments,  les mouvements, la température, l'humidité et la lumière pourront être contrôlés. Les immeubles ne se contenteront pas de cohabiter avec la nature, ils seront à son service. Ces systèmes permettront de procéder à des réparations avant que quelque chose ne s'altère définitivement, aux unités d'intervention d'urgence de répondre rapidement avec les ressources nécessaires, et aux consommateurs et entreprises de suivre leur consommation d'énergies et leurs émissions de CO2 en temps réel et ainsi pouvoir les réduire. Déjà certains édifices permettent de réduire l'utilisation de l'énergie, d'améliorer l'efficacité opérationnelle, le confort et la sécurité pour leurs occupants.  

- Les voitures et les bus circuleront sans essence.
Les voitures et les bus urbains fonctionneront de moins en moins avec des combustibles fossiles. Les véhicules vont commencer à utiliser une nouvelle génération de batteries qui n'aura pas besoin d'être rechargée pendant plusieurs jours ou mois, selon la fréquence d'utilisation.
Les équipes scientifiques d'IBM et leurs partenaires mettent au point de nouvelles batteries qui permettront aux véhicules électriques de rouler 500 à 800 kilomètres avec une seule charge, à savoir 80 à 160 kilomètres de plus que ce qui est faisable aujourd'hui. Par ailleurs, les réseaux intelligents dans les villes pourraient permettre aux voitures d'être rechargées dans des lieux publics et utiliser de l'énergie renouvelable comme l'énergie éolienne pour ne plus dépendre des centrales à charbon. Les émissions seront ainsi réduites et la pollution sonore limitée.

- Grâce à des systèmes de gestion intelligents, les villes satisferont leur soif d'eau tout en réalisant des économies d'énergie.
Aujourd'hui, une personne sur cinq n'a pas accès à l'eau potable. En parallèle, les municipalités perdent d'énormes quantités d'eau, plus de 50%, à cause des fuites dans les infrastructures.  De surcroît, la demande en eau devrait être multipliée par 6 dans les 50 prochaines années. Pour relever ce défi, les villes vont installer des systèmes intelligents de gestion de l'eau pour réduire le gaspillage de 50%. Elles vont aussi installer des systèmes d'évacuation des eaux usées qui empêcheront la pollution des rivières et des lacs, mais aussi permettront de purifier l'eau pour la rendre potable. Grâce aux technologies avancées de purification d'eau, les villes pourront recycler et réutiliser l'eau localement, et réduire par là même de 20% l'énergie utilisée pour son transport. Des compteurs et les capteurs d'eau interactifs seront intégrés dans les systèmes de gestion de l'eau et de l'énergie, fournissant en temps réel une information précise sur la consommation d'eau pour permettre de prendre de meilleures décisions concernant son l'utilisation.

- Les villes pourront réagir à une situation de crise - avant même de recevoir un appel d'urgence :
Les villes pourront réduire et même prévenir les situations d'urgence, telles que les crimes et les catastrophes naturelles. IBM aide déjà les organismes chargés de faire appliquer la loi à analyser la bonne information au bon moment, pour permettre aux fonctionnaires de prendre des mesures proactives contre la criminalité. Les sapeurs-pompiers de New York ont construit un système sophistiqué destiné à recueillir et partager les données en temps réel, de façon à prévenir les incendies et protéger les sauveteurs. IBM conçoit des systèmes de digue intelligents pour éviter aux villes des inondations dévastatrices.

 Enfin, au moment de m’associer à l’ensemble des membres de l’équipe EGILIA pour vous présenter mes meilleurs voeux de bonheur personnel et de réussite professionnelle, je vous livre les résultats d’une dernière petite étude, publiée dans le magazine “The Industry Standard”, qui liste les 10 “technologies” qui devraient disparaitre en 2010 !

 10 technologies à éliminer selon le magazine The Industry Standard

1.                  Les télécopieurs ;

 

2.                  www : la fameux préfixe du Web que remplissent automatiquement les navigateurs ;

 

3.                  L'allume-cigare ;

 

4.                  Les cartes professionnelles ;

 

5.                  Les magasins de location de films ;

 

6.                  Les télécommandes ;

 

7.                  Les lignes téléphoniques ;

 

8.                  Les CD audios ;

 

9.                  La radio satellite ;

 

10.              Les formulaires d'enregistrement des sites Web.

 En revanche, les certifications professionnelles proposées par EGILIA restent, plus que jamais, d’actualité....

Alors, n’hésitez pas à venir les préparer dans un de nos nombreux centres européens !

 
 
 
 

 

EGILIA a obtenu
4.9 / 5 sur
11 avis avec Avis-vérifiés.com

EGILIA https://www.egilia.com/images/egilia-v3/home/logo-egilia.png 22 rue du General Foy, 75008 PARIS +33 800 800 900 De 295€ à 15455€