par Bertrand Garé - Dossier publié par le magazine L'Informaticien le 14/01/2013
Malgré une faible culture numérique, les directions générales et métier demandent aux responsables de SI de les aider à atteindre leurs objectifs. Des entités comme le marketing prennent d’ailleurs un rôle prépondérant dans les demandes de projets. Centre de coût, la DSI doit démontrer son apport de valeur et de différenciation aux métiers.
Si la majeure partie du budget de la DSI reste encore sur le maintien en condition opérationnelle, les DSI doivent dégager des marges de manoeuvre pour les projets apportant un avantage compétitif. Le pro l du DSI se transforme en conséquence. Il est désormais plus partenaire et plus communiquant qu’auparavant. Objectifs pour 2013 ? Accélérer, transformer, sécuriser, collaborer et déployer. Mais peut-on avoir l’un sans les autres ?
Les nouveaux DSI
Pas simple aujourd’hui de se trouver dans la situation où votre budget va certainement être amputé de 10 à 15 % et de fournir des services de meilleure qualité pour répondre à des exigences encore plus fortes et plus disparates qu’auparavant.Thomas Gourand, en charge des ventes chez Google Entreprise France pour les clients en acquisition, estime qu’avec la crise les entreprises doivent être plus efficaces. « Cette recherche d’efficacité passe aussi par les investissements avec des projets métier et dont le retour sur investissement est de moins de douze mois. Le but est de pouvoir dégager des revenus complémentaires pour financer de nouveaux projets. Les entreprises ont d’ailleurs de plus en plus de mal à justifier des montées de versions sur certains logiciels qui n’apportent pas plus que la version précédente. »
En 2013, c’est cependant la problématique à laquelle seront confrontés les directeurs informatiques. La réponse est assez simple : il faut trouver des solutions qui permettent à la fois de fournir une qualité de service optimale tout en dégageant des marges de manoeuvre budgétaires pour de nouveaux projets innovants ou correspondant aux besoins des métiers. Une stratégie nouvelle de louvoiement se déploie pour les DSI qui changent de profils.
Selon une étude réalisée pour le compte de CA Technologies, 90 % des DSI estiment que la méconnaissance des directions générales des enjeux autour de la valeur du numérique met en péril la compétitivité de leur entreprise. À 70 %, les DSI ne sont jamais consultés lors de la prise de décisions stratégiques et pour 35 %, ils sont encore vus comme un poste de dépenses obligatoires. L’incompréhension entre les utilisateurs des outils informatiques et les fournisseurs n’a jamais été aussi grande alors que près de 90 % des opérations des entreprises s’appuient sur l’informatique. Jean-Pierre Ullmo, chez CA Technologies ajoute : « C’est un vrai sujet, chez nous, de traiter ce souci de déconnexion entre les directions générales et les services IT. Pourtant l’innovation est au service des métiers et seul le lien entre les métiers et l’IT peut amener la compétitivité. »
En fait, la vision des directions générales sur l’informatique n’a pas véritablement évolué. Elle reste sur une définition de l’informatique comme un service de support et pas véritablement une ligne métier. Les exigences de l’IT sont alors décalées vis-à-vis de la perception souvent assez grand public de ce qu’il est nécessaire pour avoir des outils professionnels ayant une qualité de service égale à des services en ligne grand public comme dans la messagerie électronique ou les réseaux sociaux.
Cette vision a pour conséquence que l’IT est souvent dans la charrette des budgets qui connaissent des coupes importantes sans commune mesure avec l’importance de celle-ci dans l’entreprise. Ce propos est évidemment à relativiser selon la maturité et le niveau d’utilisation de l’informatique. En ce sens, les sociétés dans le secteur des services sont moins enclines à couper les budgets devant l’importance prise par l’informatique dans leur activité.
Accompagner les investissements IT du marketing
Ainsi des services comme le marketing devraient dépenser plus en outillages informatiques que les services informatiques proprement dits à l’horizon 2015, selon des chiffres du Gartner Group. Pour avoir une meilleure vue du client et des relations avec lui, le marketing va donc devenir un moteur des futurs investissements dans la technologie. Sans l’informatique de telles fonctions ne pourront plus fonctionner. La montée en puissance du rôle du DSI ne sera donc plus de simplement fournir juste une plate-forme pour supporter l’activité mais de jouer un véritable rôle d’accompagnateur dans les projets pour conseiller et accompagner ces services métier dans leur choix et utilisation de la technologie.Si aujourd’hui le DSI reste souvent issu du milieu informatique, il devra cependant devenir plus politique en mettant en avant la communication avec les métiers et sur les réalisations de la DSI dans les projets innovants apportant des différenciateurs et des avantages compétitifs pour les lignes de métiers. Dans un vaste échange gagnant-gagnant, le DSI va devoir marchander des économies sur ces opérations contre des investissements sur des projets nouveaux porteurs de gains pour les lignes de métiers et s’insérer dans la stratégie de l’entreprise. À terme, le profil du DSI va donc changer pour devenir plus un manager qu’un véritable technologue. Il est troublant d’ailleurs de constater que de plus en plus de DSI ne proviennent plus du secteur informatique.
ACCÉLÉRER
Clients de l’entreprise et utilisateurs des services informatiques deviennent de plus en plus exigeants sur les conditions et possibilités d’accès au système d’information. Ils veulent y avoir accès n’importe quand et dans des conditions d’utilisation optimales. Rapidement, les utilisateurs réclament la connexion immédiate aux données, aux applications, aux outils de communication de l’entreprise. Le temps réel c’est maintenant. La DSI doit suivre, et faire mieux : accélérer !Il y a dix ans, si un client d’un site d’e-commerce acceptait d’attendre dix secondes avant l’affichage d’une page – eh oui, dix secondes ! –, désormais s’il n’a pas la réponse sur son écran au bout de quatre secondes il quitte le site. Cette exigence est encore plus sensible sur les terminaux mobiles.
Plus d’applications grâce aux méthodes agiles
Les exigences sur les applications vont au rythme des affaires. Fini le temps des développements suivant des méthodes fort élaborées mais délivrant souvent trop tard la réponse aux besoins des utilisateurs. Les entreprises ne veulent d’ailleurs plus vivre les éternels projets finalisés en retard avec des surcoûts parfois peu justifiés. Première possibilité d’accélérer la mise en oeuvre et le développement des applications : le recours aux méthodes agiles de développement qui apportent plusieurs éléments positifs. S’appuyant sur des échanges constants avec les utilisateurs métier, les méthodes agiles permettent de cerner au plus près les besoins sans se perdre dans les détails des cahiers des charges trop lourds, tout en correspondant mieux aux besoins finaux. Ce phénomène est d’autant plus sensible qu’il s’agit pour les entreprises de développer rapidement des applications pour étendre le système d’applications en dehors du périmètre de l’entreprise sur le monde mobile. Selon le cabinet Saugatuck, les applications déployées sur site ne représentent plus que 50 % et 40 % des déploiements sont hybrides et se partagent entre Cloud et déploiement sur site.Les grands services en ligne montrent l’exemple
La rapidité doit aussi se retrouver dans l’accès aux applications et aux données. Pour éviter les problèmes d’engorgement des réseaux, les opérateurs se dotent désormais de Content Delivery Networks (CDN) utilisant des réseaux misant sur la compression et l’accélération des paquets pour répondre aux besoins de performance. Dans les entreprises, de telles technologies sont aussi utilisables pour optimiser les temps de réponses des applications. Cette question devient d’ailleurs critique pour les accès mobiles aux applications pour les utilisateurs nomades de l’entreprise. Cette accélération sur les transits sur le réseau est aussi critique pour la relation avec le client qui s’attend à avoir des temps de réponses et un confort d’utilisation maximal lors de ses échanges avec l’entreprise que ce soit par mail ou en ligne. Les utilisateurs sont habitués aux temps de réponses et à la qualité de service de grands services en ligne comme Google et autres. Il suffit de constater le retentissement de chaque arrêt ou dysfonctionnement dans ces environnements pour se rendre compte du défi à relever pour les entreprises qui doivent fournir des services comparables. Dominique Loiselet, chez Blue Coat, ajoute que « si l’on veut conserver les temps de réponses, le plus souvent on explose les budgets réseau. Il faut donc utiliser les technologies et les politiques intelligentes comme l’accélération réseau qui permet d’enlever une partie du trafic du WAN (Wide Area Network) tout en ne baissant pas le niveau de sécurité. C’est ce à quoi nous nous attachons chez Blue Coat ».5,24 Teraoctets de données par Terrien en 2020
Il en est de même pour les données. Dans les entreprises, les salariés passent encore trop de temps à retrouver les données nécessaires à l’exécution de leur tâche et chaque minute perdue à le faire coûte en productivité. Avec l’explosion du volume des données créées, l’affaire ne risque pas de s’arranger.Accélérer l’accès aux données représente plusieurs besoins métier. Les analystes ont besoin des données pour fournir rapidement des éléments pour prendre des décisions. Les commerciaux ont besoin que les données clients soient disponibles pour répondre rapidement aux demandes, plaintes ou changements dans les échanges commerciaux… On peut multiplier à l’infini les cas de figure où l’accès aux données doit être quasi instantané. Les directions informatiques doivent relever un défi important du fait de cette contrainte qui se matérialise dans un contexte où le volume des données augmente exponentiellement. Selon une étude IDC réalisée pour EMC, le volume des données numériques devrait atteindre 40 Zettaoctets en 2020, soit 50 fois plus qu’en 2010. En gros, l’univers numérique double tous les deux ans. En 2020 on comptera 5,24 Teraoctets de données par habitant de la Planète. Comment, sous ce déluge, les entreprises peuvent-elles tirer profit de ces données ?
Les technologies de Big Data (in-memory, traitement parallèle, Map/Reduce) autorisent des traitements rapides de grands volumes de données en permettant des prises de décision beaucoup plus rapides qu’auparavant. Les outils de BI (Business Intelligence) se simplifient. Les requêtes et les analyses sont plus rapides et plus ouvertes pour ne pas avoir recours à de réels spécialistes. Les services marketing et commerciaux sont les premiers bénéficiaires de ces changements.
Déployer plus vite
Autre défi pour les DSI en 2013 : fournir dans des délais très rapides des outils pour les métiers correspondant à leurs besoins. Dans le domaine, même s’il n’est pas exempt de problèmes spécifiques, le Cloud et ses déclinaisons sont souvent les plus simples et les plus rapides réponses sur le marché. Elles ont aussi l’avantage de lisser les dépenses en évitant de lourds investissements en infrastructure informatique. Rien que sur le segmentdes PME, une sur cinq désormais utilise une solution en Cloud selon des chiffres fournis par le cabinet Markess. Si les directions métier tiennent les cordons de la bourse pour les projets, la DSI a encore la plus grande légitimité pour aider et accompagner les services dans leur choix et la définition de leurs besoins. Jean-Pierre Ullmo (CA) cite l’exemple d’un constructeur automobile allemand qui s’appuie désormais sur les outils ITKO de CA Technologies pour modéliser ses services métier et les assembler plus rapidement. Autre exemple, un opérateur de télécommunications qui a descendu sa stack marketing dans les points de vente pour gagner en réactivité lors de ses campagnes. Cela permet aussi d’éviter le phénomène de « Shadow IT » ou d’un système informatique qui se développe dans le dos du service informatique. Le rôle des fournisseurs change peu à peu et ils remettent le plus souvent les services informatiques dans la boucle lorsque la demande émane d’un service métier de l’entreprise. L’intégration et la sécurité restent toujours du ressort de la DSI et, au vu des risques, cela n’est pas près de changer !
Faire bonne mesure
En informatique, on ne maîtrise que ce que l’on peut mesurer. Pas la peine d’aller vite si les utilisateurs ne s’en rendent pas compte ou si le ressenti n’est pas bon. Il convient de pouvoir prouver que la satisfaction des utilisateurs est bien là ainsi que de bons temps de réponses et de bons niveaux de services. Le plus souvent, seuls les incidents sont relevés. Plus rarement on souligne que le système fonctionne bien ! La mise en oeuvre de métriques et de rapports en collaboration avec les lignes de métiers reste donc un « must » pour les directions informatiques. Cela permet aussi de mettre en oeuvre un cycle d’amélioration continue dans les opérations informatiques et de prouver la constante amélioration du service !TRANSFORMER
Pour relever le défi de la performance, les services informatiques doivent emprunter de nouveaux chemins. Afin d’être plus réactifs, plus flexibles, ils se lancent dans de vastes plans de transformation. Au coeur de celle-ci se trouvent la virtualisation, l’automatisation et le Cloud.Pour dégager des marges de manoeuvre en vue d’initier des projets permettant de soutenir la performance demandée et les nouvelles demandes des lignes de métiers, les DSI n’ont pour seule solution que d’optimiser leurs opérations. Dans l’état actuel, il est d’ailleurs difficile de tenir les engagements demandés. La mise en oeuvre classique d’un serveur physique, lorsqu’elle est faite au minimum correctement, demande de une à trois semaines. Une machine virtuelle est déployée elle en un quart d’heure. Entre les deux, le choix est donc rapidement effectué.
Une virtualisation totale ?
Pour des raisons de coûts et d’efficacité opérationnelle, les entreprises ont lancé depuis quelques années un vaste chantier de transformation de leur infrastructure. La première étape a été de consolider le nombre de serveurs en empilant les machines virtuelles sur des serveurs physiques plus puissants. Cette consolidation est aujourd’hui effectuée dans la plupart des cas. Les avantages de la virtualisation sont alors apparus nombreux. Pour des dépenses et des coûts moindres, il est possible d’avoir plus de machines, d’en automatiser les opérations et de simplifier leur administration.D’où l’idée de généraliser à d’autres éléments informatiques les bienfaits de la virtualisation. Cette deuxième étape est déjà engagée avec la virtualisation des postes de travail. Que ce soit sur des clients lourds, légers, Web, les entreprises gèrent désormais les environnements de travail de manière centralisée à l’aide d’images système plus ou moins complétées par des packages d’applications.
En termes de coûts, l’administration des postes devient aussi moins coûteuse et le temps libéré par une gestion centralisée et automatisée permet de réallouer des ressources sur des projets plus intéressants.
D’autres couches dans les centres de données vont dans un avenir proche se voir virtualisées. Les acquisitions de Nicira par VMware, de Cariden par Cisco ou de Contrail par Juniper sont autant de signes qui démontrent que la prochaine vague va toucher la virtualisation de la couche réseau. L’idée est à terme de créer un centre de données totalement virtualisé ou sous forme de logiciel en décorrélant toutes les couches d’administration des équipements physiques sous-jacents. Ce SDN (Software Defined Datacenter) est l’étape aultime vers une généralisation de l’informatique distribuée en nuage (Cloud) à l’intérieur des entreprises. L’idée est de pouvoir rapprocher les coûts d’opérations et l’efficacité des Clouds privés aux résultats comparables à ceux connus dans les grands Clouds publics. Jean-Pierre Ullmo, chez CA Technologies, ajoute : « Les infrastructures virtuelles permettent de dégager des marges de manoeuvre avec l’idée d’avoir les pratiques des Clouds publics dans le contexte d’un Cloud privé et de se rapprocher des mêmes coûts d’opérations par l’automatisation et l’orchestration. Encore faut-il prendre en compte tous les coûts dans le centre de données. »
Orchestration et automatisation
Sur ce nouveau type d’infrastructure, les outils d’administration et de gestion des processus IT sont devenus plus matures et apportent leur part d’efficacité. Les consoles d’administration ont revus leurs interfaces pour rendre la prise en main simple mais ont surtout augmenté le nombre d’opérations automatisées embarquées dans les outils. Ainsi, Powershell de Microsoft embarque des centaines de scripts clés-enmains pour les mises à jour ou d’autres tâches répétitives ou sans grande valeur ajoutée pour l’administrateur.De la même manière les outils d’orchestration des processus IT sortent de leurs ghettos de spécialistes pour devenir plus graphiques avec des processus clés en main. Avec des processus hybrides mixant applications sur sites et dans le Cloud, les entreprises se retrouvent à gérer un « nouveau plat de spaghetti » ajoutant encore de la complexité sur l’ensemble des questions de gestion des processus et d’intégration entre les applications. De nouvelles solutions s’efforcent d’apporter une réponse comme Cordys, Axway ou Mulesoft en proposant des plates-formes qui permettent de concevoir, de mettre en oeuvre et d’orchestrer des processus complexes à partir du Cloud ou solutions sur sites. Il en est de même avec des outils comme ceux de VMware. L’idée sous-jacente est toujours d’automatiser pour gagner en réactivité et flexibilité.
Le Cloud dans tous les esprits
En corollaire de la virtualisation, le Cloud et ses différentes déclinaisons (SaaS, PaaS, IaaS, BPaaS…) sont dans tous les esprits et la demande n’est plus de savoir si les entreprises vont basculer sur ce modèle mais quand ? Selon Evault, une entreprise spécialisée dans le stockage en ligne, l’acceptation, en particulier sur le marché des PME, est forte. Une étude récente de Markess semble le confirmer.La tendance actuelle est au Cloud hybride alliant des installations sur sites des entreprises et des infrastructures ou des applications dans le nuage informatique. Peu d’entreprises ont encore fait le choix du Cloud dit public en dehors de l’infrastructure ou de plates-formes pour développer et déployer des applications. Les verrous propriétaires de ces plates-formes restent un frein. À partir de certains niveaux – volume des données, importance de l’infrastructure externalisée – il devient en fait difficile de faire machine arrière. Les entreprises sont donc cependant prudentes sur le sujet.
Les applications dans le nuage ne semblent plus avoir de réelles limites d’usage et à peu près toutes les applications sont aujourd’hui « cloudifiables ». L’offre est d’ailleurs pléthorique. Même des secteurs comme les ERP, ou sensibles comme la Business Intelligence, les RH ont désormais des champions sur le Cloud et fournissent des services de haut niveau. SAP est d’ailleurs en pointe sur le sujet et, après un peu de retard à l’allumage, comble à vitesse grand V son retard dans le domaine. Un autre enjeu est de sortir ainsi des environnements sclérosés actuels pour apporter une simplification en utilisant des infrastructures et des applicatifs à la demande et en ligne. Cette transition se fait d’ailleurs assez facilement. Thomas Gourand (Google) explique ainsi que chez ses clients près de 70 % des salariés connaissent déjà les applications et leur utilisation. Des coûts de formation en moins !
L’année du Lean IT ?
Le Lean management va-t-il s’imposer dans les organisations informatiques ? Il ne semble pas évident au premier abord que ce concept issu de l’industrie soit applicable dans les environnements informatiques. Tout diffère : les méthodes, le langage, les buts. Pourtant, après des années de recherche et d’échanges, l’expérience a montré que le Lean pouvait s’appliquer avec profit à l’informatique, et ce, quel que soit l’activité. Développement, projet, production peuvent tirer parti de cette méthode d’organisation qui vise à réellement identifier les problèmes et à les résoudre en mettant en avant la valeur apportée au client.Régis Medina, qui vient de coécrire un ouvrage sur le sujet (lire notre rubrique livre) souligne que «Le Lean fait prendre conscience de qui est mon client et ce qu’il attend réellement, ce qui a de la valeur pour lui ». Ancrée sur le terrain, la méthode vise à apporter ce qui sera réellement utile et ne vise plus à apporter le maximum de fonctionnalités. Plus qu’une révolution, le Lean apporte une nouvelle vision des choses avec pour but de satisfaire le client.
Plan à long terme qui nécessite formation et adaptation des méthodes de management, le Lean enthousiasme autant qu’il agace. Alors simple phénomène de mode ou vague profonde de refonte du management de l’IT ? 2013 pourrait être l’année charnière qui démontre que le Lean a de beaux jours devant lui.
COLLABORER
Provenant des usages grand public des réseaux sociaux et des outils 2.0, la collaboration est devenue une véritable vague de fond en 2012, avec des soutiens forts de grands acteurs de l’industrie comme Microsoft, IBM ou Salesforce. Le « Social business » ouvre d’importantes opportunités pour le DSI à la fois pour être raccord avec plusieurs besoins métier et pour améliorer la productivité de ses équipes.Pour se rendre compte de l’importance prise par les outils 2.0 ou les outils de collaboration, quelques chiffres suffisent : 90 % des PME ont une page Facebook, 70 % d’entre elles sont présentes sur Twitter, 55 % ont un blog. Pourquoi un tel engouement ?
Facebook représente aujourd’hui, avec plus d’un milliard d’abonnés, un « pays », sinon un continent. Il est difficile pour les entreprises de ne pas être présentes là où sont leurs clients. Pour beaucoup, c’est là que se décident les achats et se font et défont les réputations des produits et services de l’entreprise. Plus que pour faire réellement des ventes, les entreprises visent à multiplier les points de contacts et de retour d’informations sur leurs clients pour créer une véritable relation au long cours avec leurs clients. Ces outils, comme le Web et le téléphone, deviennent indispensables aux services marketing et vente. Les DSI ne voient souvent pas d’un bon oeil l’intrusion de tels outils dans l’entreprise mais devront faire contre mauvaise fortune bon coeur ! Les réticences concernent surtout la sécurité et l’intégration de ces flux avec les outils métier de l’entreprise. Dans l’entreprise, les salariés souhaitent de plus en plus retrouver les outils qu’ils utilisent chez eux.
Une généralisation du « Social »
On assiste aussi à une généralisation des outils dans l’ensemble des applications. Tous les grands acteurs du secteur se sont convertis aux Social Business. Microsoft a mis la main sur Yammer et remplace Messenger par Skype. Salesforce a enfourché ce nouveau cheval de bataille et le place au coeur de son offre Chatter. IBM a choisi ce type de fonctionnalité comme troisième pilier de sa stratégie avec le Cloud et l’analyse des données. Citrix complète ses offres GoTo avec le réseau Podio qui vient de dépasser les 200 000 membres.Ces outils proposent le plus souvent beaucoup plus que de simples échanges instantanés et ajoutent partage de fichiers et fonctions de collaboration sur des fichiers en temps réel ou en mode asynchrone.
De nouveaux acteurs issus de la culture internet renforce d’ailleurs le mouvement DropBox, Boxnet, SugarSync, Oodrive proposent aussi des services avancés de partage de fichiers et de stockage en ligne avec des modèles à la fois pour les particuliers et les entreprises. La seule limite à ses outils semble se situer au niveau des contraintes réglementaires et des politiques mises en place dans les entreprises. Un débat récurrent existe autour du Patriot Act, article de loi américain sur la possibilité de la justice américaine à demander à avoir accès à des données stockées sur des serveurs même à l’étranger si l’entreprise hébergeant les données est américaine. Il faut préciser que les législations européennes et françaises ne sont pas en reste.
Des moyens de communication plus diversifiés
Autres outils en pleine croissance pour de meilleurs échanges dans l’entreprise : les communications unifiées et les outils de vidéoprésence. Ces outils ont plusieurs justifications. Tout d’abord, les outils de vidéoconférence permettent de réaliser d’importantes économies sur le budget déplacements et voyages. Les gains peuvent être importants. De plus, la vidéoconférence a de multiples usages, de la formation à l’aide à distance, à la réunion de groupe de travail entre personnes sur différents sites de l’entreprise.SÉCURISER
Meg Withman, la grande cheftaine de Hewlett Packard, le déclarait lors de sa dernière allocution à Discover, la conférence utilisateurs et partenaires européenne annuelle du constructeur américain. « Le mot sécurité est dans la bouche des deux cents DSI que j’ai rencontrés cette année ». Avec une recrudescence des menaces et une entreprise ouverte à tous les vents, du fait de la mobilité et de l’omniprésence d’Internet dans les échanges de l’entreprise, la question de la sécurité sera au coeur des travaux des directions informatiques en 2013.Si la sécurité des postes de travail – et des postes virtuels à venir – est toujours présente, de nouvelles problématiques liées à la mobilité, au Cloud et au volume croissant des données se posent aux entreprises. Sur ces trois points, le point de cristallisation des problèmes reste lié à la sécurité. La mobilité et son corollaire actuel le BYOD (Bring your Own Device), ou la possibilité donnée au salarié d’utiliser son propre matériel pour effectuer des tâches d’entreprise (téléphone mobile, tablette), ouvre l’entreprise sur l’extérieur et passe souvent par des réseaux que ne contrôle pas l’entreprise. Cela pose aussi la question des accès aux données et aux applications selon les droits des utilisateurs et le contexte d’utilisation. Il en est de même avec les applications ou les données mises sur le Cloud.
Les DSI placent aujourd’hui le pragmatisme au centre de leur réflexion et s’oriente sur des solutions plus simples à utiliser et ne bridant pas les utilisateurs ou le moins possible. Des solutions plus lourdes comme celles à clés asymétriques (PKI) sont en perte de vitesse remplacées par des accès VPN et des OTP (One time Password) plus simples d’utilisation sur le terrain. Le chiffrement s’impose peu à peu. S’il ne résout pas tous les problèmes, il évite cependant que des données sensibles soient directement utilisables en cas de perte ou de vol. La plupart des solutions de sécurité pour les mobiles sont dotées de surcroît de fonctions d’effacement des données. Ce n’est pas sans conséquences juridiques en cas d’effacement de données personnelles du salarié.
Gérer le volume des données
Le volume des données, comme nous l’avons vu, ne cesse de croître dans des proportions qu’il devient désormais difficile de gérer. Les entreprises revoient rapidement leurs solutions de stockage pour faire face à un déluge de données structurées – dans les bases de données – et non ou semi structurées – Internet, messageries… – pour permettre à la fois la conservation des données nécessaires à la bonne marche de l’entreprise mais aussi exploiter de nouveaux gisements de données pour améliorer les relations avec le client ou les services proposés. L’attrait du Big Data et les possibilités pour les métiers attirent, mais comme toutes les autres données, elles doivent être protégées. Au vu des volumes à traiter, les solutions de sécurité doivent fournir aujourd’hui des performances de très haut niveau. En fait, les différentes composantes du programme pour les DSI en 2013, « Accélérer, Transformer, Collaborer, Sécuriser » sont indissociables. Pas de sécurité sans performance, pas de performance sans transformation pour obtenir une infrastructure solide et efficace tandis que, pour améliorer la productivité, sans exclure de nouveaux déploiements de postes de travail et de terminaux type tablettes les solutions collaboratives semblent les mieux placées. Du fait des réductions de budget et de la faible attirance pour le numérique des dirigeants des entreprises, il ne va pas être simple pour les DSI de prioriser les projets alors que la démarche doit être globale.Des iPad très « IT compétitifs »
Air France et Adelya, deux exemples d’entreprises très différentes, ont fait le choix de la tablette d’Apple pour équiper leurs collaborateurs. Même si leurs tailles et secteurs d’activité n’ont rien à voir, les conclusions sont les mêmes : rapidité et économies sont bien au rendez-vous !Un décollage sans perturbation
C’est en juin 2012 qu’Air France a commencé à déployer des iPad auprès « de sa flotte » de pilotes. Un déploiement qui se déroule encore actuellement – et qui devrait se poursuivre jusqu’à l’été 2013 – en fonction des appareils : d’abord, les pilotes des Boeing 777 (environ 1 400 navigants techniques), puis ceux des Boeing 747 depuis le mois de décembre, puis en janvier avec les pilotes des appareils A320, A340, etc. Le déploiement a donc été étalé pour des raisons internes notamment, liées à la nouvelle documentation du constructeur. Car le but d’équiper les pilotes avec des tablettes iPad est justement de leur permettre de disposer d’une version électronique de toute leur documentation avion personnelle, dont ils détenaient jusqu’alors une version papier à leur domicile. Avec l’iPad, ils peuvent désormais télécharger les manuels de leur choix ou accéder aux cartes des aéroports où qu’ils soient dans le monde et être automatiquement informés des mises à jour. Pratique, rapide, l’utilisation des iPad a été poussée par la demande des pilotes eux-mêmes. La DSI a donc considéré leur demande, mais traditionnellement Air France fonctionne avec des systèmes Windows. « Nous avions terminé d’équiper les pilotes avec de précédents appareils, des PC convertibles- tablettes de Lenovo, en mars 2008, avec une fin de vie prévue pour 2012. Fin 2011, nous avons donc réalisé une étude de faisabilité avec les appareils sous Windows 7 de l’époque, mais nous nous sommes rendus compte que l’OS n’était pas à la hauteur », nous résume Corinne Jeance, directrice de projet chez Air France.C’est donc en partant de ce constat et en souhaitant aller dans le sens des pilotes que les projets se sont tournés vers la mise en place d’iPad dans les équipements de la compagnie aérienne française. Et avec du recul, la directrice de projet estime « que ce n’était pas foncièrement compliqué : l’intégration d’iOS dans notre “ monde ” Windows s’est bien déroulée, nous n’avons pas dépensé plus que pour un développement standard, nous avons tenu des délais relativement courts, mais… nous avons dû changer les mentalités, aller vers l’inconnu et nous lancer dans un projet métier sans retour d’expérience ». Pour entrer dans ce nouvel écosystème, les équipes internes ont dû être formées sans donner lieu à des recrutements supplémentaires.
Si les iPad des pilotes d’Air France sont des modèles 3G + WiFi, Air France ne souscrit pas de forfait 3G. Les pilotes doivent uniquement utiliser les applications au sol, connectés au réseau WiFi de l’aéroport. En revanche, ils ont la possibilité de se payer un forfait 3G pour une utilisation personnelle.
Création d’un « Pilot Store »
Les pilotes sont équipés du Nouvel iPad – donc de troisième génération –, version 3G. Premier réflexe chez Air France : vérifier si la tablette est suffisamment résistante en termes de sécurité. « Nous avons fait expertiser par un cabinet externe le niveau de sécurité de notre solution », explique Corinne Jeance, qui souligne que l’audit a rendu des conclusions positives, sans en dire plus. Banco pour l’iPad donc, qui a passé ce premier test avec succès. « La fonction de sandboxing (bac à sable, NDLR) est très satisfaisante pour un usage professionnel. »Les pilotes disposent donc de deux applications (lire notre encadré) accessibles via un « Pilot Store », un AppStore qui n’a pas été développé par Air France puisqu’il était déjà compris dans la solution MDM (Mobile Device Management) pour laquelle a opté la compagnie. « Nous avions fait un appel d’offres pour ce système MDM et nous avons finalement retenu Air Watch simplement parce qu’ils répondaient au mieux à notre cahier des charges », souligne Corinne Jeance, qui précise par ailleurs que le dossier BYOD « est encore à l’étude chez nous car nous n’arrivons pas à nous faire de religion sur le sujet, même si ça viendra… ».
Apple : une culture du secret inadaptée aux grands comptes
Les applications ont été développées en interne. Ce fut la phase la plus complexe du projet. Pour l’occasion, les développeurs ont été formés et accompagnés avec une société de conseil extérieure, Sophiacom. Une étape qui a aussi été l’occasion d’éprouver le développement en méthode agile, obligatoire pour ce genre de projet, nous confie la directrice. « Tous les 15 jours pendant la phase de conception, j’organisais aussi des workshops avec les équipes d’Apple pour qu’ils répondent à nos questions », souligne encore Corinne Jeance. « Ils nous ont beaucoup aidé, mais, avec le recul, il faut reconnaître qu’ils ont cette culture du secret à laquelle nous sommes habitués pour le grand public, mais qui ne convient pas du tout au monde de l’entreprise ».Apple a aussi fourni l’Apple Configurator, l’outil de déploiement pour lequel « nous avons été les premiers à l’éprouver de bout en bout : on a même découvert des bugs ! Actuellement, nous déployons environ trente cinq iPad par jour avec l’outil ».
En conclusion, Corinne Jeance est enthousiaste. Le déploiement de ces iPad se déroule sans heurts et les utilisateurs sont les principaux gagnants. « Nous prévoyons même de déployer le système de e-learning sur iPad à partir d’avril 2013 », explique-t-elle. Mais ce déploiement entraîne toutefois des changements. D’une part, Air France a fait le choix d’un hébergement externalisé en mode cloud car les mises à jour sur les applications demandent beaucoup de bande passante. « Il nous a fallu repenser nos modes de fonctionnement. Désormais, nous devons être plus réactifs, voire proactifs. Nos méthodes de travail doivent s’adapter et nous avons des équipes en permanence qui travaillent sur le sujet. »
Si la directrice de projet est enthousiaste, c’est aussi parce que ce projet aura coûté moins cher qu’un déploiement avec des PC traditionnels. Et ce, même si le cycle de vie des iPad a été fixé à deux ans chez Air France. « On ne peut pas garder les tablettes quatre ans car, à la vitesse à laquelle bougent les choses, on ne peut pas prendre le risque que les applications ne fonctionnent plus sur une version obsolète. »
Deux applications pour les pilotes
Les pilotes ont donc accès à deux applications sur leur iPad via le « Pilot Store ». La première est l’application de consultation et de mise à jour de la documentation avion. C’est une application qui permet de lire la documentation en format XML et PDF, à la différence de la plus connue application GoodReader, qui ne supporte pas le XML. Ils ont aussi accès à un moteur de recherche, peuvent prendre des notes, ajouter des favoris, etc. La seconde application sert à rédiger des formulaires qui permettent de faire des retours sur des dysfonctionnements. À noter aussi qu’à partir de janvier, les pilotes pourront télécharger sur leur tablette l’application LIDO et les cartes aériennes nommées « Les routiers ».ADELYA
Quatre-vingt-dix iPad de terrain
Dans un domaine entièrement différent, la PME française Adelya, groupe de distribution spécialisé dans l’hygiène professionnelle, a elle aussi opté pour l’iPad, afin d’équiper ses commerciaux sur le terrain.Les commerciaux étaient donc équipés d’ordinateurs Panasonic – à environ 2 000 euros pièce – avec une durée de vie de trois ans. Et lorsque les dirigeants réfléchissent au renouvellement du parc à la fin 2011, le choix de l’iPad « a semblé naturel ». L’entreprise s’est donc équipée avec les tablettes d’Apple et a développé une application en relation avec son partenaire historique, la société de conseil et d’intégration ADSI. L’application est donc directement intégrée avec l’ERP Sage X3 utilisé par Adelya et fonctionne en mode déconnectée pour les quatrevingt- dix commerciaux de l’entreprise. « Nous avons d’abord gagné en coût d’investissement, mais aussi en coût de fonctionnement », souligne Philippe Scemama. Depuis le déploiement, qui date d’octobre 2012, « nous avons déjà compris que nous gagnons beaucoup de temps que ce soit sur la maintenance, le suivi ou l’implication des équipes informatiques par rapport aux ordinateurs Panasonic ».
Aucun commentaire:
Enregistrer un commentaire
Remarque : Seul un membre de ce blog est autorisé à enregistrer un commentaire.