dimanche 28 juillet 2013

Compétitivité IT 2013 : Accélérer, Transformer, Collaborer, Sécuriser

par Bertrand Garé - Dossier publié par le magazine L'Informaticien le 14/01/2013 Article Rating

Malgré une faible culture numérique, les directions générales et métier demandent aux responsables de SI de les aider à atteindre leurs objectifs. Des entités comme le marketing prennent d’ailleurs un rôle prépondérant dans les demandes de projets. Centre de coût, la DSI doit démontrer son apport de valeur et de différenciation aux métiers.

Si la majeure partie du budget de la DSI reste encore sur le maintien en condition opérationnelle, les DSI doivent dégager des marges de manoeuvre pour les projets apportant un avantage compétitif. Le pro l du DSI se transforme en conséquence. Il est désormais plus partenaire et plus communiquant qu’auparavant. Objectifs pour 2013 ? Accélérer, transformer, sécuriser, collaborer et déployer. Mais peut-on avoir l’un sans les autres ?

Les nouveaux DSI

Pas simple aujourd’hui de se trouver dans la situation où votre budget va certainement être amputé de 10 à 15 % et de fournir des services de meilleure qualité pour répondre à des exigences encore plus fortes et plus disparates qu’auparavant.
Thomas Gourand, en charge des ventes chez Google Entreprise France pour les clients en acquisition, estime qu’avec la crise les entreprises doivent être plus efficaces. « Cette recherche d’efficacité passe aussi par les investissements avec des projets métier et dont le retour sur investissement est de moins de douze mois. Le but est de pouvoir dégager des revenus complémentaires pour financer de nouveaux projets. Les entreprises ont d’ailleurs de plus en plus de mal à justifier des montées de versions sur certains logiciels qui n’apportent pas plus que la version précédente. »
En 2013, c’est cependant la problématique à laquelle seront confrontés les directeurs informatiques. La réponse est assez simple : il faut trouver des solutions qui permettent à la fois de fournir une qualité de service optimale tout en dégageant des marges de manoeuvre budgétaires pour de nouveaux projets innovants ou correspondant aux besoins des métiers. Une stratégie nouvelle de louvoiement se déploie pour les DSI qui changent de profils.
Selon une étude réalisée pour le compte de CA Technologies, 90 % des DSI estiment que la méconnaissance des directions générales des enjeux autour de la valeur du numérique met en péril la compétitivité de leur entreprise. À 70 %, les DSI ne sont jamais consultés lors de la prise de décisions stratégiques et pour 35 %, ils sont encore vus comme un poste de dépenses obligatoires. L’incompréhension entre les utilisateurs des outils informatiques et les fournisseurs n’a jamais été aussi grande alors que près de 90 % des opérations des entreprises s’appuient sur l’informatique. Jean-Pierre Ullmo, chez CA Technologies ajoute : « C’est un vrai sujet, chez nous, de traiter ce souci de déconnexion entre les directions générales et les services IT. Pourtant l’innovation est au service des métiers et seul le lien entre les métiers et l’IT peut amener la compétitivité. »
En fait, la vision des directions générales sur l’informatique n’a pas véritablement évolué. Elle reste sur une définition de l’informatique comme un service de support et pas véritablement une ligne métier. Les exigences de l’IT sont alors décalées vis-à-vis de la perception souvent assez grand public de ce qu’il est nécessaire pour avoir des outils professionnels ayant une qualité de service égale à des services en ligne grand public comme dans la messagerie électronique ou les réseaux sociaux.
Cette vision a pour conséquence que l’IT est souvent dans la charrette des budgets qui connaissent des coupes importantes sans commune mesure avec l’importance de celle-ci dans l’entreprise. Ce propos est évidemment à relativiser selon la maturité et le niveau d’utilisation de l’informatique. En ce sens, les sociétés dans le secteur des services sont moins enclines à couper les budgets devant l’importance prise par l’informatique dans leur activité.

Accompagner les investissements IT du marketing

Ainsi des services comme le marketing devraient dépenser plus en outillages informatiques que les services informatiques proprement dits à l’horizon 2015, selon des chiffres du Gartner Group. Pour avoir une meilleure vue du client et des relations avec lui, le marketing va donc devenir un moteur des futurs investissements dans la technologie. Sans l’informatique de telles fonctions ne pourront plus fonctionner. La montée en puissance du rôle du DSI ne sera donc plus de simplement fournir juste une plate-forme pour supporter l’activité mais de jouer un véritable rôle d’accompagnateur dans les projets pour conseiller et accompagner ces services métier dans leur choix et utilisation de la technologie.
Si aujourd’hui le DSI reste souvent issu du milieu informatique, il devra cependant devenir plus politique en mettant en avant la communication avec les métiers et sur les réalisations de la DSI dans les projets innovants apportant des différenciateurs et des avantages compétitifs pour les lignes de métiers. Dans un vaste échange gagnant-gagnant, le DSI va devoir marchander des économies sur ces opérations contre des investissements sur des projets nouveaux porteurs de gains pour les lignes de métiers et s’insérer dans la stratégie de l’entreprise. À terme, le profil du DSI va donc changer pour devenir plus un manager qu’un véritable technologue. Il est troublant d’ailleurs de constater que de plus en plus de DSI ne proviennent plus du secteur informatique.
La connaissance du métier devient prépondérante pour réussir cet échange entre investissements et budgets. « Les DSI devront devenir de vrais leaders avec une expertise particulière », indique Jean-Pierre Ullmo, chez CA Technologies. Joli programme pour les DSI durant l’année à venir ! Il est d’ailleurs à noter que de nouveaux postes se créent dans les entreprises comme celui de vice-président à l’innovation – c’est le cas chez Lafarge.
 

ACCÉLÉRER

Clients de l’entreprise et utilisateurs des services informatiques deviennent de plus en plus exigeants sur les conditions et possibilités d’accès au système d’information. Ils veulent y avoir accès n’importe quand et dans des conditions d’utilisation optimales. Rapidement, les utilisateurs réclament la connexion immédiate aux données, aux applications, aux outils de communication de l’entreprise. Le temps réel c’est maintenant. La DSI doit suivre, et faire mieux : accélérer !
Il y a dix ans, si un client d’un site d’e-commerce acceptait d’attendre dix secondes avant l’affichage d’une page – eh oui, dix secondes ! –, désormais s’il n’a pas la réponse sur son écran au bout de quatre secondes il quitte le site. Cette exigence est encore plus sensible sur les terminaux mobiles.
Il en est de même pour les utilisateurs dans l’entreprise qui ne supportent plus d’avoir de meilleures conditions d’accès à l’informatique chez eux à leur domicile que dans leur entreprise. Ils poussent à la fois à l’utilisation de nouveaux outils plus en rapport avec leur utilisation quotidienne et une qualité de service que le service informatique peine parfois à leur fournir. Les DSI entrent dans l’ère du temps réel et les systèmes d’information doivent être agiles, flexibles, rapides, performants. Il existe désormais les technologies pour le faire. Dominique Loiselet, DG France de Blue Coat, donne lui pour définition de la performance tous les éléments qui permettent de réaliser ce que l’on n’était pas capable d’accomplir auparavant.

Plus d’applications grâce aux méthodes agiles

Les exigences sur les applications vont au rythme des affaires. Fini le temps des développements suivant des méthodes fort élaborées mais délivrant souvent trop tard la réponse aux besoins des utilisateurs. Les entreprises ne veulent d’ailleurs plus vivre les éternels projets finalisés en retard avec des surcoûts parfois peu justifiés. Première possibilité d’accélérer la mise en oeuvre et le développement des applications : le recours aux méthodes agiles de développement qui apportent plusieurs éléments positifs. S’appuyant sur des échanges constants avec les utilisateurs métier, les méthodes agiles permettent de cerner au plus près les besoins sans se perdre dans les détails des cahiers des charges trop lourds, tout en correspondant mieux aux besoins finaux. Ce phénomène est d’autant plus sensible qu’il s’agit pour les entreprises de développer rapidement des applications pour étendre le système d’applications en dehors du périmètre de l’entreprise sur le monde mobile. Selon le cabinet Saugatuck, les applications déployées sur site ne représentent plus que 50 % et 40 % des déploiements sont hybrides et se partagent entre Cloud et déploiement sur site.

Les grands services en ligne montrent l’exemple

La rapidité doit aussi se retrouver dans l’accès aux applications et aux données. Pour éviter les problèmes d’engorgement des réseaux, les opérateurs se dotent désormais de Content Delivery Networks (CDN) utilisant des réseaux misant sur la compression et l’accélération des paquets pour répondre aux besoins de performance. Dans les entreprises, de telles technologies sont aussi utilisables pour optimiser les temps de réponses des applications. Cette question devient d’ailleurs critique pour les accès mobiles aux applications pour les utilisateurs nomades de l’entreprise. Cette accélération sur les transits sur le réseau est aussi critique pour la relation avec le client qui s’attend à avoir des temps de réponses et un confort d’utilisation maximal lors de ses échanges avec l’entreprise que ce soit par mail ou en ligne. Les utilisateurs sont habitués aux temps de réponses et à la qualité de service de grands services en ligne comme Google et autres. Il suffit de constater le retentissement de chaque arrêt ou dysfonctionnement dans ces environnements pour se rendre compte du défi à relever pour les entreprises qui doivent fournir des services comparables. Dominique Loiselet, chez Blue Coat, ajoute que « si l’on veut conserver les temps de réponses, le plus souvent on explose les budgets réseau. Il faut donc utiliser les technologies et les politiques intelligentes comme l’accélération réseau qui permet d’enlever une partie du trafic du WAN (Wide Area Network) tout en ne baissant pas le niveau de sécurité. C’est ce à quoi nous nous attachons chez Blue Coat ».

5,24 Teraoctets de données par Terrien en 2020

Il en est de même pour les données. Dans les entreprises, les salariés passent encore trop de temps à retrouver les données nécessaires à l’exécution de leur tâche et chaque minute perdue à le faire coûte en productivité. Avec l’explosion du volume des données créées, l’affaire ne risque pas de s’arranger.
Accélérer l’accès aux données représente plusieurs besoins métier. Les analystes ont besoin des données pour fournir rapidement des éléments pour prendre des décisions. Les commerciaux ont besoin que les données clients soient disponibles pour répondre rapidement aux demandes, plaintes ou changements dans les échanges commerciaux… On peut multiplier à l’infini les cas de figure où l’accès aux données doit être quasi instantané. Les directions informatiques doivent relever un défi important du fait de cette contrainte qui se matérialise dans un contexte où le volume des données augmente exponentiellement. Selon une étude IDC réalisée pour EMC, le volume des données numériques devrait atteindre 40 Zettaoctets en 2020, soit 50 fois plus qu’en 2010. En gros, l’univers numérique double tous les deux ans. En 2020 on comptera 5,24 Teraoctets de données par habitant de la Planète. Comment, sous ce déluge, les entreprises peuvent-elles tirer profit de ces données ?
On assiste pour relever ce défi à la généralisation de l’utilisation d’outils de stockage de très hautes performances qui s’appuient le plus souvent sur la technologie des disques SSD ou les technologies PCI Express ou Flash. Longtemps considérées comme trop chères, ces technologies sont offertes aujourd’hui à des coûts raisonnables. Ainsi, les disques bas de gamme en SSD sont proches d’un dollar par gigaoctet et ont connu une baisse spectaculaire de 23 % des prix au cours de 2012. De plus, de nouveaux acteurs comme Smart Storage Systems ou Whiptail permettent d’utiliser des disques d’entrée de gamme tout en offrant des performances du haut du panier des SSD.
Les technologies de Big Data (in-memory, traitement parallèle, Map/Reduce) autorisent des traitements rapides de grands volumes de données en permettant des prises de décision beaucoup plus rapides qu’auparavant. Les outils de BI (Business Intelligence) se simplifient. Les requêtes et les analyses sont plus rapides et plus ouvertes pour ne pas avoir recours à de réels spécialistes. Les services marketing et commerciaux sont les premiers bénéficiaires de ces changements.
 

Déployer plus vite

Autre défi pour les DSI en 2013 : fournir dans des délais très rapides des outils pour les métiers correspondant à leurs besoins. Dans le domaine, même s’il n’est pas exempt de problèmes spécifiques, le Cloud et ses déclinaisons sont souvent les plus simples et les plus rapides réponses sur le marché. Elles ont aussi l’avantage de lisser les dépenses en évitant de lourds investissements en infrastructure informatique. Rien que sur le segment
des PME, une sur cinq désormais utilise une solution en Cloud selon des chiffres fournis par le cabinet Markess. Si les directions métier tiennent les cordons de la bourse pour les projets, la DSI a encore la plus grande légitimité pour aider et accompagner les services dans leur choix et la définition de leurs besoins. Jean-Pierre Ullmo (CA) cite l’exemple d’un constructeur automobile allemand qui s’appuie désormais sur les outils ITKO de CA Technologies pour modéliser ses services métier et les assembler plus rapidement. Autre exemple, un opérateur de télécommunications qui a descendu sa stack marketing dans les points de vente pour gagner en réactivité lors de ses campagnes. Cela permet aussi d’éviter le phénomène de « Shadow IT » ou d’un système informatique qui se développe dans le dos du service informatique. Le rôle des fournisseurs change peu à peu et ils remettent le plus souvent les services informatiques dans la boucle lorsque la demande émane d’un service métier de l’entreprise. L’intégration et la sécurité restent toujours du ressort de la DSI et, au vu des risques, cela n’est pas près de changer !

Faire bonne mesure

En informatique, on ne maîtrise que ce que l’on peut mesurer. Pas la peine d’aller vite si les utilisateurs ne s’en rendent pas compte ou si le ressenti n’est pas bon. Il convient de pouvoir prouver que la satisfaction des utilisateurs est bien là ainsi que de bons temps de réponses et de bons niveaux de services. Le plus souvent, seuls les incidents sont relevés. Plus rarement on souligne que le système fonctionne bien ! La mise en oeuvre de métriques et de rapports en collaboration avec les lignes de métiers reste donc un « must » pour les directions informatiques. Cela permet aussi de mettre en oeuvre un cycle d’amélioration continue dans les opérations informatiques et de prouver la constante amélioration du service !
 

TRANSFORMER

Pour relever le défi de la performance, les services informatiques doivent emprunter de nouveaux chemins. Afin d’être plus réactifs, plus flexibles, ils se lancent dans de vastes plans de transformation. Au coeur de celle-ci se trouvent la virtualisation, l’automatisation et le Cloud.
Pour dégager des marges de manoeuvre en vue d’initier des projets permettant de soutenir la performance demandée et les nouvelles demandes des lignes de métiers, les DSI n’ont pour seule solution que d’optimiser leurs opérations. Dans l’état actuel, il est d’ailleurs difficile de tenir les engagements demandés. La mise en oeuvre classique d’un serveur physique, lorsqu’elle est faite au minimum correctement, demande de une à trois semaines. Une machine virtuelle est déployée elle en un quart d’heure. Entre les deux, le choix est donc rapidement effectué.

Une virtualisation totale ?

Pour des raisons de coûts et d’efficacité opérationnelle, les entreprises ont lancé depuis quelques années un vaste chantier de transformation de leur infrastructure. La première étape a été de consolider le nombre de serveurs en empilant les machines virtuelles sur des serveurs physiques plus puissants. Cette consolidation est aujourd’hui effectuée dans la plupart des cas. Les avantages de la virtualisation sont alors apparus nombreux. Pour des dépenses et des coûts moindres, il est possible d’avoir plus de machines, d’en automatiser les opérations et de simplifier leur administration.
Un seul exemple suffit à la démonstration. Dans un environnement Windows sur des serveurs physiques, un administrateur avait en charge de 10 à 15 serveurs. Au-delà, il lui était difficile de couvrir l’ensemble des opérations. Aujourd’hui, ce même administrateur a en charge une centaine de serveurs virtuels sans avoir des journées plus longues ou plus stressantes. Ces environnements connaissent une maturité plus grande avec des outils d’administration au point autorisant une automatisation poussée des opérations – migrations des machines virtuelles par exemple. Leur administration s’est massifiée et les consoles sont devenues plus graphiques et plus simples à prendre en main. Il n’est plus véritablement nécessaire d’être un virtuose du script pour réaliser des opérations de grande envergure comme la mise à jour d’une batterie de serveurs ou l’application d’un patch sur une application.
D’où l’idée de généraliser à d’autres éléments informatiques les bienfaits de la virtualisation. Cette deuxième étape est déjà engagée avec la virtualisation des postes de travail. Que ce soit sur des clients lourds, légers, Web, les entreprises gèrent désormais les environnements de travail de manière centralisée à l’aide d’images système plus ou moins complétées par des packages d’applications.
En termes de coûts, l’administration des postes devient aussi moins coûteuse et le temps libéré par une gestion centralisée et automatisée permet de réallouer des ressources sur des projets plus intéressants.
D’autres couches dans les centres de données vont dans un avenir proche se voir virtualisées. Les acquisitions de Nicira par VMware, de Cariden par Cisco ou de Contrail par Juniper sont autant de signes qui démontrent que la prochaine vague va toucher la virtualisation de la couche réseau. L’idée est à terme de créer un centre de données totalement virtualisé ou sous forme de logiciel en décorrélant toutes les couches d’administration des équipements physiques sous-jacents. Ce SDN (Software Defined Datacenter) est l’étape aultime vers une généralisation de l’informatique distribuée en nuage (Cloud) à l’intérieur des entreprises. L’idée est de pouvoir rapprocher les coûts d’opérations et l’efficacité des Clouds privés aux résultats comparables à ceux connus dans les grands Clouds publics. Jean-Pierre Ullmo, chez CA Technologies, ajoute : « Les infrastructures virtuelles permettent de dégager des marges de manoeuvre avec l’idée d’avoir les pratiques des Clouds publics dans le contexte d’un Cloud privé et de se rapprocher des mêmes coûts d’opérations par l’automatisation et l’orchestration. Encore faut-il prendre en compte tous les coûts dans le centre de données. »

Orchestration et automatisation

Sur ce nouveau type d’infrastructure, les outils d’administration et de gestion des processus IT sont devenus plus matures et apportent leur part d’efficacité. Les consoles d’administration ont revus leurs interfaces pour rendre la prise en main simple mais ont surtout augmenté le nombre d’opérations automatisées embarquées dans les outils. Ainsi, Powershell de Microsoft embarque des centaines de scripts clés-enmains pour les mises à jour ou d’autres tâches répétitives ou sans grande valeur ajoutée pour l’administrateur.
De la même manière les outils d’orchestration des processus IT sortent de leurs ghettos de spécialistes pour devenir plus graphiques avec des processus clés en main. Avec des processus hybrides mixant applications sur sites et dans le Cloud, les entreprises se retrouvent à gérer un « nouveau plat de spaghetti » ajoutant encore de la complexité sur l’ensemble des questions de gestion des processus et d’intégration entre les applications. De nouvelles solutions s’efforcent d’apporter une réponse comme Cordys, Axway ou Mulesoft en proposant des plates-formes qui permettent de concevoir, de mettre en oeuvre et d’orchestrer des processus complexes à partir du Cloud ou solutions sur sites. Il en est de même avec des outils comme ceux de VMware. L’idée sous-jacente est toujours d’automatiser pour gagner en réactivité et flexibilité.
 

Le Cloud dans tous les esprits

En corollaire de la virtualisation, le Cloud et ses différentes déclinaisons (SaaS, PaaS, IaaS, BPaaS…) sont dans tous les esprits et la demande n’est plus de savoir si les entreprises vont basculer sur ce modèle mais quand ? Selon Evault, une entreprise spécialisée dans le stockage en ligne, l’acceptation, en particulier sur le marché des PME, est forte. Une étude récente de Markess semble le confirmer.
La tendance actuelle est au Cloud hybride alliant des installations sur sites des entreprises et des infrastructures ou des applications dans le nuage informatique. Peu d’entreprises ont encore fait le choix du Cloud dit public en dehors de l’infrastructure ou de plates-formes pour développer et déployer des applications. Les verrous propriétaires de ces plates-formes restent un frein. À partir de certains niveaux – volume des données, importance de l’infrastructure externalisée – il devient en fait difficile de faire machine arrière. Les entreprises sont donc cependant prudentes sur le sujet.
Les applications dans le nuage ne semblent plus avoir de réelles limites d’usage et à peu près toutes les applications sont aujourd’hui « cloudifiables ». L’offre est d’ailleurs pléthorique. Même des secteurs comme les ERP, ou sensibles comme la Business Intelligence, les RH ont désormais des champions sur le Cloud et fournissent des services de haut niveau. SAP est d’ailleurs en pointe sur le sujet et, après un peu de retard à l’allumage, comble à vitesse grand V son retard dans le domaine. Un autre enjeu est de sortir ainsi des environnements sclérosés actuels pour apporter une simplification en utilisant des infrastructures et des applicatifs à la demande et en ligne. Cette transition se fait d’ailleurs assez facilement. Thomas Gourand (Google) explique ainsi que chez ses clients près de 70 % des salariés connaissent déjà les applications et leur utilisation. Des coûts de formation en moins !

L’année du Lean IT ?

Le Lean management va-t-il s’imposer dans les organisations informatiques ? Il ne semble pas évident au premier abord que ce concept issu de l’industrie soit applicable dans les environnements informatiques. Tout diffère : les méthodes, le langage, les buts. Pourtant, après des années de recherche et d’échanges, l’expérience a montré que le Lean pouvait s’appliquer avec profit à l’informatique, et ce, quel que soit l’activité. Développement, projet, production peuvent tirer parti de cette méthode d’organisation qui vise à réellement identifier les problèmes et à les résoudre en mettant en avant la valeur apportée au client.
Régis Medina, qui vient de coécrire un ouvrage sur le sujet (lire notre rubrique livre) souligne que «Le Lean fait prendre conscience de qui est mon client et ce qu’il attend réellement, ce qui a de la valeur pour lui ». Ancrée sur le terrain, la méthode vise à apporter ce qui sera réellement utile et ne vise plus à apporter le maximum de fonctionnalités. Plus qu’une révolution, le Lean apporte une nouvelle vision des choses avec pour but de satisfaire le client.
Plan à long terme qui nécessite formation et adaptation des méthodes de management, le Lean enthousiasme autant qu’il agace. Alors simple phénomène de mode ou vague profonde de refonte du management de l’IT ? 2013 pourrait être l’année charnière qui démontre que le Lean a de beaux jours devant lui.
 

COLLABORER

Provenant des usages grand public des réseaux sociaux et des outils 2.0, la collaboration est devenue une véritable vague de fond en 2012, avec des soutiens forts de grands acteurs de l’industrie comme Microsoft, IBM ou Salesforce. Le « Social business » ouvre d’importantes opportunités pour le DSI à la fois pour être raccord avec plusieurs besoins métier et pour améliorer la productivité de ses équipes.
Pour se rendre compte de l’importance prise par les outils 2.0 ou les outils de collaboration, quelques chiffres suffisent : 90 % des PME ont une page Facebook, 70 % d’entre elles sont présentes sur Twitter, 55 % ont un blog. Pourquoi un tel engouement ?
Facebook représente aujourd’hui, avec plus d’un milliard d’abonnés, un « pays », sinon un continent. Il est difficile pour les entreprises de ne pas être présentes là où sont leurs clients. Pour beaucoup, c’est là que se décident les achats et se font et défont les réputations des produits et services de l’entreprise. Plus que pour faire réellement des ventes, les entreprises visent à multiplier les points de contacts et de retour d’informations sur leurs clients pour créer une véritable relation au long cours avec leurs clients. Ces outils, comme le Web et le téléphone, deviennent indispensables aux services marketing et vente. Les DSI ne voient souvent pas d’un bon oeil l’intrusion de tels outils dans l’entreprise mais devront faire contre mauvaise fortune bon coeur ! Les réticences concernent surtout la sécurité et l’intégration de ces flux avec les outils métier de l’entreprise. Dans l’entreprise, les salariés souhaitent de plus en plus retrouver les outils qu’ils utilisent chez eux. 
Les outils de collaboration comme le partage de fichiers ou les réseaux sociaux en font partie. La première justification de ces outils est l’accélération du transfert d’information et le partage de connaissance à l’intérieur de l’entreprise. Le salarié a rapidement accès à l’expert ou à la personne capable de résoudre le problème auquel il est confronté dans son travail. Par ailleurs, il fluidifie les échanges et facilite la communication principalement dans un contexte d’ouverture de l’entreprise vers l’extérieur du fait de la mobilité des salariés et de la multiplication des points de contacts avec les clients et partenaires de l’entreprise. Thomas Gourand, chez Google, indique que « les salariés sont souvent arrivés à la limite de la productivité individuelle. Une solution est donc de rechercher une plus grande efficacité en équipe ».

Une généralisation du « Social »

On assiste aussi à une généralisation des outils dans l’ensemble des applications. Tous les grands acteurs du secteur se sont convertis aux Social Business. Microsoft a mis la main sur Yammer et remplace Messenger par Skype. Salesforce a enfourché ce nouveau cheval de bataille et le place au coeur de son offre Chatter. IBM a choisi ce type de fonctionnalité comme troisième pilier de sa stratégie avec le Cloud et l’analyse des données. Citrix complète ses offres GoTo avec le réseau Podio qui vient de dépasser les 200 000 membres.
Ces outils proposent le plus souvent beaucoup plus que de simples échanges instantanés et ajoutent partage de fichiers et fonctions de collaboration sur des fichiers en temps réel ou en mode asynchrone.
De nouveaux acteurs issus de la culture internet renforce d’ailleurs le mouvement DropBox, Boxnet, SugarSync, Oodrive proposent aussi des services avancés de partage de fichiers et de stockage en ligne avec des modèles à la fois pour les particuliers et les entreprises. La seule limite à ses outils semble se situer au niveau des contraintes réglementaires et des politiques mises en place dans les entreprises. Un débat récurrent existe autour du Patriot Act, article de loi américain sur la possibilité de la justice américaine à demander à avoir accès à des données stockées sur des serveurs même à l’étranger si l’entreprise hébergeant les données est américaine. Il faut préciser que les législations européennes et françaises ne sont pas en reste.
 

Des moyens de communication plus diversifiés

Autres outils en pleine croissance pour de meilleurs échanges dans l’entreprise : les communications unifiées et les outils de vidéoprésence. Ces outils ont plusieurs justifications. Tout d’abord, les outils de vidéoconférence permettent de réaliser d’importantes économies sur le budget déplacements et voyages. Les gains peuvent être importants. De plus, la vidéoconférence a de multiples usages, de la formation à l’aide à distance, à la réunion de groupe de travail entre personnes sur différents sites de l’entreprise.
Les outils de communication unifiée permettent, eux, de contacter la bonne personne quel que soit le contexte de son activité et selon le canal le plus approprié : mail, téléphone, mobile, messagerie instantanée. L’idée, là encore, est de pousser la productivité et la rapidité de réaction en particulier dans la relation avec le client ou le partenaire de l’entreprise. Tout comme le Cloud, il va être difficile de ne pas se convertir à ce nouveau mode de travail. Encore faut-il que les organisations suivent et que les différents niveaux de management s’engagent pour en tirer profit et passent eux aussi dans un mode plus collaboratif et moins hiérarchique.
 

SÉCURISER

Meg Withman, la grande cheftaine de Hewlett Packard, le déclarait lors de sa dernière allocution à Discover, la conférence utilisateurs et partenaires européenne annuelle du constructeur américain. « Le mot sécurité est dans la bouche des deux cents DSI que j’ai rencontrés cette année ». Avec une recrudescence des menaces et une entreprise ouverte à tous les vents, du fait de la mobilité et de l’omniprésence d’Internet dans les échanges de l’entreprise, la question de la sécurité sera au coeur des travaux des directions informatiques en 2013.
Si la sécurité des postes de travail – et des postes virtuels à venir – est toujours présente, de nouvelles problématiques liées à la mobilité, au Cloud et au volume croissant des données se posent aux entreprises. Sur ces trois points, le point de cristallisation des problèmes reste lié à la sécurité. La mobilité et son corollaire actuel le BYOD (Bring your Own Device), ou la possibilité donnée au salarié d’utiliser son propre matériel pour effectuer des tâches d’entreprise (téléphone mobile, tablette), ouvre l’entreprise sur l’extérieur et passe souvent par des réseaux que ne contrôle pas l’entreprise. Cela pose aussi la question des accès aux données et aux applications selon les droits des utilisateurs et le contexte d’utilisation. Il en est de même avec les applications ou les données mises sur le Cloud.
Les DSI placent aujourd’hui le pragmatisme au centre de leur réflexion et s’oriente sur des solutions plus simples à utiliser et ne bridant pas les utilisateurs ou le moins possible. Des solutions plus lourdes comme celles à clés asymétriques (PKI) sont en perte de vitesse remplacées par des accès VPN et des OTP (One time Password) plus simples d’utilisation sur le terrain. Le chiffrement s’impose peu à peu. S’il ne résout pas tous les problèmes, il évite cependant que des données sensibles soient directement utilisables en cas de perte ou de vol. La plupart des solutions de sécurité pour les mobiles sont dotées de surcroît de fonctions d’effacement des données. Ce n’est pas sans conséquences juridiques en cas d’effacement de données personnelles du salarié.

Gérer le volume des données

Le volume des données, comme nous l’avons vu, ne cesse de croître dans des proportions qu’il devient désormais difficile de gérer. Les entreprises revoient rapidement leurs solutions de stockage pour faire face à un déluge de données structurées – dans les bases de données – et non ou semi structurées – Internet, messageries… – pour permettre à la fois la conservation des données nécessaires à la bonne marche de l’entreprise mais aussi exploiter de nouveaux gisements de données pour améliorer les relations avec le client ou les services proposés. L’attrait du Big Data et les possibilités pour les métiers attirent, mais comme toutes les autres données, elles doivent être protégées. Au vu des volumes à traiter, les solutions de sécurité doivent fournir aujourd’hui des performances de très haut niveau. En fait, les différentes composantes du programme pour les DSI en 2013, « Accélérer, Transformer, Collaborer, Sécuriser » sont indissociables. Pas de sécurité sans performance, pas de performance sans transformation pour obtenir une infrastructure solide et efficace tandis que, pour améliorer la productivité, sans exclure de nouveaux déploiements de postes de travail et de terminaux type tablettes les solutions collaboratives semblent les mieux placées. Du fait des réductions de budget et de la faible attirance pour le numérique des dirigeants des entreprises, il ne va pas être simple pour les DSI de prioriser les projets alors que la démarche doit être globale.
 

Des iPad très « IT compétitifs »

Air France et Adelya, deux exemples d’entreprises très différentes, ont fait le choix de la tablette d’Apple pour équiper leurs collaborateurs. Même si leurs tailles et secteurs d’activité n’ont rien à voir, les conclusions sont les mêmes : rapidité et économies sont bien au rendez-vous !

Chercher une entreprise qui déploie auprès de ses salariés des tablettes autres que des iPad revient à chercher la fameuse aiguille dans la botte de foin. Nous exagérons à peine. Mais il est évident que la tablette d’Apple s’impose très largement sur ses concurrentes dans le monde professionnel. Sans compter que les différents retours que nous avons sont tous positifs dans la globalité. Véritable avantage concurrentiel, l’iPad a donc déjà fait ses preuves malgré sa courte durée de vie – rappelons que le premier modèle a vu le jour seulement en mars 2010. Et en quelques mois, il a aussi séduit les utilisateurs qui font souvent pression sur la DSI pour en être équipés. C’est notamment le cas chez Air France, qui est en train d’équiper progressivement ses 4 100 pilotes d’avion.

Un décollage sans perturbation

C’est en juin 2012 qu’Air France a commencé à déployer des iPad auprès « de sa flotte » de pilotes. Un déploiement qui se déroule encore actuellement – et qui devrait se poursuivre jusqu’à l’été 2013 – en fonction des appareils : d’abord, les pilotes des Boeing 777 (environ 1 400 navigants techniques), puis ceux des Boeing 747 depuis le mois de décembre, puis en janvier avec les pilotes des appareils A320, A340, etc. Le déploiement a donc été étalé pour des raisons internes notamment, liées à la nouvelle documentation du constructeur. Car le but d’équiper les pilotes avec des tablettes iPad est justement de leur permettre de disposer d’une version électronique de toute leur documentation avion personnelle, dont ils détenaient jusqu’alors une version papier à leur domicile. Avec l’iPad, ils peuvent désormais télécharger les manuels de leur choix ou accéder aux cartes des aéroports où qu’ils soient dans le monde et être automatiquement informés des mises à jour. Pratique, rapide, l’utilisation des iPad a été poussée par la demande des pilotes eux-mêmes. La DSI a donc considéré leur demande, mais traditionnellement Air France fonctionne avec des systèmes Windows. « Nous avions terminé d’équiper les pilotes avec de précédents appareils, des PC convertibles- tablettes de Lenovo, en mars 2008, avec une fin de vie prévue pour 2012. Fin 2011, nous avons donc réalisé une étude de faisabilité avec les appareils sous Windows 7 de l’époque, mais nous nous sommes rendus compte que l’OS n’était pas à la hauteur », nous résume Corinne Jeance, directrice de projet chez Air France.
C’est donc en partant de ce constat et en souhaitant aller dans le sens des pilotes que les projets se sont tournés vers la mise en place d’iPad dans les équipements de la compagnie aérienne française. Et avec du recul, la directrice de projet estime « que ce n’était pas foncièrement compliqué : l’intégration d’iOS dans notre “ monde ” Windows s’est bien déroulée, nous n’avons pas dépensé plus que pour un développement standard, nous avons tenu des délais relativement courts, mais… nous avons dû changer les mentalités, aller vers l’inconnu et nous lancer dans un projet métier sans retour d’expérience ». Pour entrer dans ce nouvel écosystème, les équipes internes ont dû être formées sans donner lieu à des recrutements supplémentaires.
Si les iPad des pilotes d’Air France sont des modèles 3G + WiFi, Air France ne souscrit pas de forfait 3G. Les pilotes doivent uniquement utiliser les applications au sol, connectés au réseau WiFi de l’aéroport. En revanche, ils ont la possibilité de se payer un forfait 3G pour une utilisation personnelle.

Création d’un « Pilot Store »

Les pilotes sont équipés du Nouvel iPad – donc de troisième génération –, version 3G. Premier réflexe chez Air France : vérifier si la tablette est suffisamment résistante en termes de sécurité. « Nous avons fait expertiser par un cabinet externe le niveau de sécurité de notre solution », explique Corinne Jeance, qui souligne que l’audit a rendu des conclusions positives, sans en dire plus. Banco pour l’iPad donc, qui a passé ce premier test avec succès. « La fonction de sandboxing (bac à sable, NDLR) est très satisfaisante pour un usage professionnel. »
Les pilotes disposent donc de deux applications (lire notre encadré) accessibles via un « Pilot Store », un AppStore qui n’a pas été développé par Air France puisqu’il était déjà compris dans la solution MDM (Mobile Device Management) pour laquelle a opté la compagnie. « Nous avions fait un appel d’offres pour ce système MDM et nous avons finalement retenu Air Watch simplement parce qu’ils répondaient au mieux à notre cahier des charges », souligne Corinne Jeance, qui précise par ailleurs que le dossier BYOD « est encore à l’étude chez nous car nous n’arrivons pas à nous faire de religion sur le sujet, même si ça viendra… ». 

Apple : une culture du secret inadaptée aux grands comptes

Les applications ont été développées en interne. Ce fut la phase la plus complexe du projet. Pour l’occasion, les développeurs ont été formés et accompagnés avec une société de conseil extérieure, Sophiacom. Une étape qui a aussi été l’occasion d’éprouver le développement en méthode agile, obligatoire pour ce genre de projet, nous confie la directrice. « Tous les 15 jours pendant la phase de conception, j’organisais aussi des workshops avec les équipes d’Apple pour qu’ils répondent à nos questions », souligne encore Corinne Jeance. « Ils nous ont beaucoup aidé, mais, avec le recul, il faut reconnaître qu’ils ont cette culture du secret à laquelle nous sommes habitués pour le grand public, mais qui ne convient pas du tout au monde de l’entreprise ».
Apple a aussi fourni l’Apple Configurator, l’outil de déploiement pour lequel « nous avons été les premiers à l’éprouver de bout en bout : on a même découvert des bugs ! Actuellement, nous déployons environ trente cinq iPad par jour avec l’outil ».
En conclusion, Corinne Jeance est enthousiaste. Le déploiement de ces iPad se déroule sans heurts et les utilisateurs sont les principaux gagnants. « Nous prévoyons même de déployer le système de e-learning sur iPad à partir d’avril 2013 », explique-t-elle. Mais ce déploiement entraîne toutefois des changements. D’une part, Air France a fait le choix d’un hébergement externalisé en mode cloud car les mises à jour sur les applications demandent beaucoup de bande passante. « Il nous a fallu repenser nos modes de fonctionnement. Désormais, nous devons être plus réactifs, voire proactifs. Nos méthodes de travail doivent s’adapter et nous avons des équipes en permanence qui travaillent sur le sujet. »
Si la directrice de projet est enthousiaste, c’est aussi parce que ce projet aura coûté moins cher qu’un déploiement avec des PC traditionnels. Et ce, même si le cycle de vie des iPad a été fixé à deux ans chez Air France. « On ne peut pas garder les tablettes quatre ans car, à la vitesse à laquelle bougent les choses, on ne peut pas prendre le risque que les applications ne fonctionnent plus sur une version obsolète. »

Deux applications pour les pilotes

Les pilotes ont donc accès à deux applications sur leur iPad via le « Pilot Store ». La première est l’application de consultation et de mise à jour de la documentation avion. C’est une application qui permet de lire la documentation en format XML et PDF, à la différence de la plus connue application GoodReader, qui ne supporte pas le XML. Ils ont aussi accès à un moteur de recherche, peuvent prendre des notes, ajouter des favoris, etc. La seconde application sert à rédiger des formulaires qui permettent de faire des retours sur des dysfonctionnements. À noter aussi qu’à partir de janvier, les pilotes pourront télécharger sur leur tablette l’application LIDO et les cartes aériennes nommées « Les routiers ».
 
 

ADELYA

Quatre-vingt-dix iPad de terrain

Dans un domaine entièrement différent, la PME française Adelya, groupe de distribution spécialisé dans l’hygiène professionnelle, a elle aussi opté pour l’iPad, afin d’équiper ses commerciaux sur le terrain.

Depuis 2001, Adelya, une PME de deux cents personnes qui réalise environ 50 millions de chiffre d’affaires annuel consolidé, équipe ses commerciaux en ordinateurs portables classiques, avec un renouvellement de parc prévu tous les trois ans. « Nous utilisions Windows puis nous avons opté pour une solution ERP de Sage – anciennement celle d’Adonix – en 2006 pour réinformatiser tout le groupe », nous explique Philippe Scemama, PDG d’Adelya. Un parc informatique taillé pour l’époque mais avec un ERP qui était encore déconnecté du système d’information, avec une interface qui se démodait rapidement et des limites rapidement ressenties à mesure que l’ERP se développait vite et fort. « Nous voulions un applicatif intégré avec notre ERP via des web services, mais il y a encore trois ans, on ne parlait pas de tablettes », se souvient-il.
Les commerciaux étaient donc équipés d’ordinateurs Panasonic – à environ 2 000 euros pièce – avec une durée de vie de trois ans. Et lorsque les dirigeants réfléchissent au renouvellement du parc à la fin 2011, le choix de l’iPad « a semblé naturel ». L’entreprise s’est donc équipée avec les tablettes d’Apple et a développé une application en relation avec son partenaire historique, la société de conseil et d’intégration ADSI. L’application est donc directement intégrée avec l’ERP Sage X3 utilisé par Adelya et fonctionne en mode déconnectée pour les quatrevingt- dix commerciaux de l’entreprise. « Nous avons d’abord gagné en coût d’investissement, mais aussi en coût de fonctionnement », souligne Philippe Scemama. Depuis le déploiement, qui date d’octobre 2012, « nous avons déjà compris que nous gagnons beaucoup de temps que ce soit sur la maintenance, le suivi ou l’implication des équipes informatiques par rapport aux ordinateurs Panasonic ».

Les commerciaux impliqués dans la création de l’application

Concrètement, l’application a été développée avec ADSI donc, mais en impliquant toutes les parties. « Les commerciaux ont été conviés aux réunions pour la création de l’application. » Un système qui a visiblement apporté une « fraîcheur, une réactivité dont nous ne disposions pas avant ». Sur le terrain, les commer- QR Adelya a équipé ses quatre-vingt-dix commerciaux avec des iPad, sur lesquels ils accèdent à des informations fraîches, apportant une réactivité sans équivalent avec la précédente solution. L’application a été développée par la société de conseil ADSI et s’intègre avec l’ERP Sage X3. ciaux ont aussi accès à une richesse d’informations plus importantes – fiches clients, bons de livraison, etc. – en temps réel.
Globalement, tout le monde est satisfait de cette solution et Adelya a finalement rencontré peu de résistance au changement de la part des utilisateurs. Même le prestataire ADSI semble convaincu par l’expérience. « Nous avons dû nous familiariser avec un langage, Objectiv-C, et tous les outils adéquats pour développer dans de bonnes conditions, mais aussi remettre à plat tous nos préconçus en matière de création. Il faut penser tactile ! », explique Florent Omont, directeur général d’ADSI. Tout comme Air France, il a utilisé la solution de déploiement proposée par Apple, l’Apple Configurator, qui l’a vraiment séduit. « On fait ce qu’on veut avec : on peut restreindre, préinstaller, tolérer, etc. ».

Aucun commentaire:

Enregistrer un commentaire

Remarque : Seul un membre de ce blog est autorisé à enregistrer un commentaire.