Les négligences des administrateurs informatiques augmentent les risques de pertes de données pesant sur la sécurité des informations

Les environnements de stockage de plus en plus complexes au sein des entreprises exigent des protocoles de sauvegarde stricts et un investissement conséquent dans des solutions de protection des données. La complexité des environnements de stockage et l’augmentation du volume de données risquent en effet d’entraîner une grave perte de données en cas d’erreur humaine. De nombreuses entreprises se retrouvent ainsi en situation de vulnérabilité face aux enjeux sécuritaires et financiers si elles n’investissent pas et n’adhèrent pas correctement à des politiques de gestion des risques. Pour les aider, TelKroll Ontrack publie la liste des erreurs courantes commises par les administrateurs informatiques susceptibles de conduire à une perte de données et à l’arrêt du réseau.

« La complexité des environnements informatiques virtuels et le volume croissant de données qui passent par les réseaux d’entreprise exigent une vigilance informatique constante et une bonne gestion des données », souligne Todd Johnson, vice-président en charge des technologies de stockage et des données chez Kroll Ontrack. « Néanmoins, les êtres humains ne sont pas infaillibles et la suppression accidentelle ou une sauvegarde défaillante peuvent entraîner sans le savoir la perte d’informations clients ou d’informations propriétaires de l’entreprise, voire une impossibilité à détecter une brèche dans la sécurité. »

Une récente étude d’EMC révèle que les entreprises ont perdu plus de 1 million de dollars par an à cause de la perte de données et que 26 % des cas de perte de données sont le résultat d’une erreur de l’utilisateur. En cas de brèche de sécurité, une entreprise dont la sauvegarde des données est défaillante suite à une erreur humaine ne pourra pas compter sur les informations vitales du journal des événements pour savoir d’où provient l’attaque ou le programme malveillant. De plus, pour les entreprises confrontées à des impératifs réglementaires stricts, une suppression accidentelle de serveur peut entraîner la perte de preuves capitales pour les audits, exposant ces entreprises à des sanctions ou litiges onéreux et inutiles.

« De nombreuses entreprises n’investissent simplement pas les ressources suffisantes pour comprendre les menaces et les risques ou pour orchestrer les politiques en fonction de ces menaces et risques. Ajoutez à cela les négligences courantes des administrateurs informatiques et vous avez là tous les ingrédients d’un cas typique de perte de données et de vulnérabilités dans la sécurité », indique Richard Scott, directeur de la sécurité des informations chez Kroll Ontrack. « Donner la priorité aux mises à jour matérielles, effectuer des tests rigoureux, valider les processus du réseau informatique, recruter des professionnels compétents et expérimentés et recourir si nécessaire à un expert en récupération de données sont des précautions fondamentales que chaque décideur d’entreprise se doit d’envisager. »

Selon Kroll Ontrack, voici les erreurs et négligences informatiques les plus courantes qui peuvent conduire à une perte de données et à des vulnérabilités dans la sécurité:

1) Défaut de documentation et d’exécution des procédures informatiques, de sauvegarde et de conservation établies. Un serveur de tests passe en production, mais personne n’informe l’entité informatique qu’il collecte désormais de précieuses données, de sorte que ces données ne sont pas sauvegardées. Dans un autre scénario, le départ d’une personne qui détient des connaissances clés pour l’environnement engendre la confusion ou crée un ensemble non documenté de détails inconnus sur la configuration et l’utilisation du système.

2) Défaut de sauvegarde. D’après une récente étude de Kroll Ontrack auprès de clients ayant demandé une récupération de données, 61 % avaient une sauvegarde en place au moment de la perte, mais la sauvegarde ne fonctionnait pas correctement, le dispositif de stockage souhaité n’était pas inclus dans la sauvegarde ou la sauvegarde n’était pas à jour. Il est essentiel de tester les politiques de sauvegarde, d’identifier le stockage adéquat et de valider l’intégrité de la sauvegarde.

3) Retard en matière d’investissements dans la sécurité ou l’infrastructure. De nombreux cas de perte de données sont le résultat d’entreprises qui n’ont pas investi dans la sécurité ou la modernisation de leur infrastructure.

4) Non-respect des politiques de sécurité et/ou absence de mise à jour des contrôles de sécurité et du système d’exploitation. La moindre faille dans la sécurité informatique peut avoir des conséquences dévastatrices, y compris la perte de données et de lourdes dépenses. Les administrateurs doivent utiliser leurs privilèges à bon escient, limiter les mots de passe aux seuls utilisateurs qui en ont besoin et les modifier lorsqu’un administrateur informatique quitte l’entreprise. Il faut mettre régulièrement à jour les correctifs de sécurité des systèmes d’exploitation et les contrôles de protection contre les programmes malveillants pour se protéger contre les cyberattaques.

5) Suppression de données qui sont toujours utilisées. Kroll Ontrack récupère régulièrement des données sur des bandes ou des réseaux de serveurs censés ne plus être utilisés, mais qui contiennent toujours des données actives.

Kroll Ontrack recommande aux départements informatiques de suivre les pratiques ci-après :

– Éviter de paniquer et d’agir dans la précipitation. En cas de perte de données, les entreprises ne doivent pas restaurer les données sur le volume source à partir de la sauvegarde, puisque c’est là que les données ont été perdues en premier lieu. Elles ne doivent pas non plus créer de nouvelles données sur le volume source, car elles pourraient être altérées ou endommagées.

– Avoir confiance en ses compétences et connaissances. Le personnel informatique doit aider les dirigeants à éviter les décisions qui vont aggraver la situation. En cas de perte de données, le volume doit être mis hors ligne rapidement. Les données sont écrasées très rapidement et le volume ne doit pas être formaté pour résoudre les altérations.

– Avoir un plan. Le personnel doit suivre les processus établis de l’ITIL (Information Technology Infrastructure Library pour « Bibliothèque pour l’infrastructure des technologies de l’information ») et s’assurer que la documentation du centre de traitements est exhaustive et à jour. Plus particulièrement, le personnel informatique ne doit pas exécuter des utilitaires de volume (CHKDSK/FSCK) ou mettre à jour les microprogrammes en cas de perte de données.

– Connaître son environnement (et ses données). Le personnel informatique doit comprendre ce que son environnement de stockage peut supporter et à quelle vitesse il peut récupérer. Il est important de savoir quelles données sont cruciales ou irremplaçables, si elles peuvent être saisies à nouveau ou remplacées, et les coûts pour que ces données redeviennent opérationnelles. Le personnel doit évaluer les coûts et les risques au moment de déterminer ce qui est le plus urgent : remettre le système en état de fonctionnement rapidement ou protéger les données qui s’y trouvent.

En cas de doute, appeler un spécialiste de la récupération de données. Le fabricant ou fournisseur peut certes constituer un bon point de départ, mais il n’est pas forcément préoccupé par la valeur des données et le risque de perte de données au moment de remettre un système en état de fonctionnement.

87 % des entreprises sont encore rétives à sauter le pas du cloud

Inquiètes des problématiques de sécurité et de confidentialité des données commerciales, 87 % des entreprises sondées sont encore rétives à sauter le pas du cloud. Tel est le principal résultat de l’étude « Vers le cloud de nouvelle génération : retours d’expérience et enseignements à tirer », réalisée par le cabinet The Economist Intelligence Unit (EIU) pour le compte d’Hitachi Data Systems Corporation. On y apprend également que le cloud public est deux fois plus enclin que le cloud privé à rencontrer des pannes et interruptions de service. Enfin, près de la moitié des personnes interrogées indique craindre avant tout qu’une mauvaise mise en place du cloud ne se traduise par la perte de données clients.

Le cloud computing continue à faire bouger les lignes dans l’ensemble de l’industrie informatique. Pour bon nombre d’entreprises, il a été à l’origine de nouvelles opportunités commerciales, de la création de produits et services complémentaires et de nouveaux domaines d’activité. Il a en outre doté les DSI, les fournisseurs de services et autres intégrateurs de systèmes de solutions plus rentables pour déployer leur offre de services auprès de leurs utilisateurs et clients. Malgré tous les avantages propres au cloud, son adoption continue cependant à susciter craintes et incertitudes chez les professionnels, aussi ouverts soient-ils.

Ainsi, 67 % des sondés ont déjà rencontré, d’une manière ou d’une autre, des incidents ou problèmes liés au cloud. Amenées à qualifier l’intensité du problème qu’elles ont rencontré, 9 % des personnes concernées ont répondu « haute », tandis que 55 % estimaient avoir eu affaire à un désagrément de gravité « limitée » et 34 % de sévérité « moyenne ». 46 % des sondés voient la « perte de données clients » comme le premier risque découlant d’une mauvaise mise en place du cloud. Suivent ensuite le risque de pertes financières (40 %) et de violation du caractère confidentiel des données clients (36 %). Enfin, 26 % des répondants ayant été affectés par un incident lié au cloud citent « une incapacité prolongée à accéder » au cloud public, tandis qu’une majorité (36 %) indique que la source du problème était une erreur technique imputable à leur propre entreprise.

Cinq règles d’or à respecter

En s’appuyant sur les retours d’expérience de 232 responsables informatique issus du monde entier et ayant assisté à l’adoption du cloud dans leur entreprise, l’étude Economist Intelligence Unit 2015 identifie cinq réflexes qui peuvent aider les entreprises à tirer le meilleur parti des atouts qu’offre le cloud.

Ces cinq règles d’or sont autant de garantes d’une agilité accrue, d’une plus grande facilité d’accès aux données et d’une meilleure productivité de la part des salariés :
– S’assurer que le fournisseur de services cloud est apte à répondre comme il se doit aux besoins commerciaux de l’entreprise et aux contraintes propres à son environnement informatique.
– Choisir le service cloud le mieux adapté pour garder la main sur la sécurité et la protection des données.
– Opter pour des architectures cloud qui permettent aux services cloud de se connecter aux infrastructures informatiques existantes.
– Tenir compte de divers facteurs outre les considérations tarifaires, comme la capacité du cloud à améliorer la marche des activités de l’entreprise, à dynamiser l’innovation et à stimuler l’efficacité des salariés.
– Définir des exigences fonctionnelles pour que le service informatique puisse proposer des services cloud et agir comme un fournisseur de services cloud en interne.

Des solutions garantissent la sécurité et la protection des données sur le cloud

En complément de ces règles d’or, la solution Hitachi Content Platform (HCP) propose des fonctionnalités inédites qui devraient convaincre plus d’une entreprise de passer au cloud. Cette famille de produits permet à l’utilisateur de façonner sa propre architecture cloud sécurisée, évolutive et facile à administrer. Elle se compose de HCP, une plateforme de stockage objet dans le cloud, de HCP Anywhere, une solution de synchronisation et de partage de fichiers destinée aux entreprises et d’Hitachi Data Ingestor (HDI), une porte d’accès au stockage virtualisé.

Ces trois solutions sont intégrées de sorte à offrir un maximum de mobilité aux données, ce qui évite aux entreprises les problèmes propres au stockage classique en silos. Facilitant la mobilité des données, HCP s’appuie sur une architecture hybride pour permettre aux entreprises de déplacer les contenus et flux de travail jugés sensibles vers et entre les clouds privés de leur choix. Grâce aux fonctionnalités hybrides et aux outils de gestion des données de HCP, les services informatiques peuvent agir en interne comme des fournisseurs de services cloud, tout en gardant le contrôle de la situation et en pouvant s’assurer à tout moment que la sécurité, la souveraineté et la conformité des données sont préservées. Cela signifie que les services informatiques sont en mesure de proposer un accès sécurisé à leurs utilisateurs où qu’ils se trouvent et depuis tout type de terminal.

Oracle fête les 20 ans de Java en attendant la nouvelle version : Java 9

Oracle fête les 20 ans de Java qui constitue aujourd’hui la colonne vertébrale d’une foule de logiciels dans des univers aussi variés que celui du big data, du cloud, de la mobilité, de l’IoT, des voitures connectées et des jeux vidéo. 

Apparu en 1995, Java est un langage de programmation utilisé aujourd’hui par plus de 7 milliards d’appareils et objets. Que ce soit pour améliorer la sécurité sur la route et dans les airs, collecter des informations sur les océans pour des besoins scientifiques, améliorer la qualité des semences céréalières, quantifier les besoins des populations affamées, simuler le cerveau humain et le système musculo-squelettique ou encore développer des nouveaux jeux, à chaque fois, Java est là. « Java s’est développé pour devenir aujourd’hui l’une des technologies les plus importantes et les plus incontournables de notre industrie, souligne déclare Georges Saab, Vice President of Development, Java Platform Group chez Oracle. L’écosystème Java rassemble des quantités impressionnantes de bibliothèques, de frameworks et de ressources pour aider les programmeurs les plus novices aussi bien que les experts. Le développement de Java lui-même s’effectue de façon transparente dans le cadre de la communauté OpenJDK« .

Oracle rappelle que sous son impulsion, deux versions majeures de la plateforme ont vu le jour : Java 7 et Java 8. Quant à Java 9, il est attendu pour 2016. Le Java Community Process (JCP) constitue d’ailleurs un élément clé de l’implication de la communauté dans les évolutions de la technologie. Il y a aussi la Communauté OpenJDK qui permet de collaborer sur une implémentation open source de la plateforme Java SE (Standard Edition), et attire sans cesse de nouveaux contributeurs.

En mars 2014, Oracle a annoncé la disponibilité de Java SE 8, une version développée de façon collaborative au sein de la Communauté OpenJDK. Peu de temps après, en avril 2014, Java ME 8 (Java Platform Micro Edition 8) et les versions Java Embarqué d’Oracle ont également été publiées après validation finale du Java Community Process. Oracle et la communauté Java se concentrent désormais sur l’implémentation des nouvelles innovations de Java 9 qui devrait faciliter un peu plus encore le développement et la maintenance de bibliothèques et des applications de grande taille, mais aussi améliorer leur sécurité. Voici les principales nouveautés attendues :

  • le Project Jigsaw qui vise à modulariser la plateforme afin de rendre sa taille encore plus pertinente et évolutive sur une large gamme d’appareils.
  • la console en ligne de commande Java Shell (un outil interactif permettant d’évaluer les bouts de code Java),
  • une nouvelle API HTTP-Client pour supporter HTTP/2 et les WebSockets
  • un portage pour l’architecture ARM AArch64 sur Linux,
  • différentes mises à jour des API existantes,
  • une amélioration importantes des performances.

« Directement ou indirectement, Java impacte presque tous les humains de cette planète, concède Martijn Verburg, Co-Leader of Java User Group à Londres. C‘est cette technologie qui permet aux services mobiles bancaires et de santé d’atteindre les zones les plus reculées du monde, divertit des millions de gens avec des jeux tels que Minecraft, et qui fait aussi tourner le moteur économique de nos marchés mondiaux« .

Enfin pour célébrer ce 20ème anniversaire, Oracle Certification offre une remise de 20% sur tous les examens de certification Java jusqu’au 31 décembre 2015 (avec le code promo : Java20).

E-commerce : plus de 50% des Français achètent en ligne au moins une fois par mois

Selon la Fevad, les Français ont dépensé 57 milliards d’euros sur Internet en 2014. A quelle fréquence les Français achètent-ils en ligne ? En quels services ont-ils confiance ? Qu’en est-il des européens ? La marque de confiance pour l’e-commerce Trusted Shops publie les résultats de son enquête annuelle réalisée en partenariat avec l’INFAS.

Le spécialiste du e-commerce a mené fin 2014-début 2015 son étude annuelle avec l’institut INFAS sur les comportements des internautes européens en matière d’achat en ligne. Cette enquête concerne la France, l’Allemagne, le Royaume-Uni, l’Espagne, la Pologne et a réuni près de 1 000 participants par pays.

Qui achète le plus en ligne en Europe ?

Comme chaque année, l’étude révèle la fréquence à laquelle les internautes européens se rendent sur un site marchand pour y réaliser un achat en ligne.

En 2014, les britanniques gardent la tête du classement avec 39% des sondés qui achètent en ligne au moins une fois par semaine. A noter tout de même une diminution de 5% de leur intérêt pour ce mode d’achat par rapport à 2013[1].

Les Français quant à eux sont moins frileux vis-à-vis de l’achat en ligne. Bien que leur fréquence d’achat mensuelle soit passée de 56% à 53% en 2015, celle de leur shopping hebdomadaire a progressé de 3 % pour atteindre 24%.
Seule l’Allemagne observe un rythme d’achat stable, avec une baisse modérée de 1% des interrogés qui achètent en ligne au moins une fois par semaine.

« Bien que la moitié des Français n’ait jamais eu de problème lors d’un achat en ligne, 50% d’entre eux ont tout de même d’ores et déjà vécu une mauvaise expérience sur Internet » souligne David Chau, directeur exécutif international chez Trusted Shops. « Ce chiffre démontre de la réelle importance des mesures de confiance pour faire d’Internet un endroit sûr pour tout un chacun, quelque soit sa connaissance de l’e-commerce. »

Quels sont les critères de satisfaction à améliorer en Europe ?

Nouveauté 2014, l’étude fait état des différents problèmes que les européens peuvent rencontrer avec une boutique en ligne. A 50%, les Français déclarent n’avoir jamais rencontré de difficultés lors d’un achat sur internet. Il s’agit ici de la population ayant la meilleure expérience en ligne d’Europe.

La livraison est quant à elle largement pointée du doigt par les consommateurs européens. En effet, les délais de livraison non tenus sont l’obstacle majeur que rencontrent les européens après avoir passé commande sur un site e-commerce. La livraison de marchandise non désirée arrive également en seconde position des expériences négatives vécues en Europe.

Quelles sont les motivations des européens pour choisir une boutique en ligne ?

Chaque année, l’enquête met en exergue les services que les consommateurs européens attendent d’une boutique en ligne mais également ceux qui les mettent en confiance.

Pour les Allemands, les Espagnols, les Français et les Anglais, la présence d’une garantie de remboursement proposée par un organisme reconnu est l’aspect le plus important en matière de choix d’un site marchand.

La combinaison de services de confiance (garantie de remboursement, label de qualité et avis clients certifies) est également un critère favorisant le choix des internautes européens.

Les consommateurs européens affichent clairement leur volonté de vivre une expérience d’achat en ligne positive et rassurante. Que cela soit en termes de livraison, de garantie de remboursement ou tout autre service de confiance, les attentes sont réelles ; aux e-marchands d’en tenir compte pour améliorer toujours plus leur qualité de service.?

Anwar Dahab prend la tête de Dell France

Anwar Dahab est le nouveau directeur général de Dell France. (Crédit : Dell France)

Anwar Dahab est le nouveau directeur général de Dell France. (Crédit : Dell France)

 

La filiale française du constructeur confie sa vice-présidence et sa direction générale à Anwar Dahab qui remplace Emmanuel Mouquet.

Le pilotage des opérations de Dell en France est désormais entre les mains d’Anwar Dahab. Le nouveau directeur général et vice-président de la filiale française du fabricant succède à Emmanuel Mouquet qui devient de son côté directeur des comptes internationaux de Dell en Asie. Dans le cadre de ses nouvelles fonctions, Anwar Dahab devra notamment accélérer la mise en place des solutions de bout-en-bout de Dell autour des Infrastructure, du logiciel, des services et du poste clients.

Anwar Dahab a débuté sa carrière en 1995 chez le FAI FranceNet. Il rejoint Dell en 1999 en tant que directeur internet pour la région Europe du Sud. L’homme gravit progressivement les échelons au sein du groupe dont il était dernièrement le directeur des ventes de solutions d’infrastructures en Europe de l’Ouest.

A Montpellier, les subventions accordées à Computacenter font débat

Le centre de services français de Computacenter a été ouvert début avril à Pérols, près de Montpellier. Crédit photo : D.R.

Le centre de services français de Computacenter a été ouvert début avril à Pérols, près de Montpellier. Crédit photo : D.R.

Lors de la dernière réunion du conseil d’agglomération de Montpellier, certains conseillers se sont élevés contre le million et demi d’euros perçu par le géant de la distribution et des services informatiques pour s’implanter dans l’Hérault.

Le groupe de distribution britannique Computacenter a inauguré début avril son quinzième centre de services à Pérols, près de Montpellier. Pour mettre sur pied cette structure qui devrait accueillir environ 400 collaborateurs dans les trois années à venir, contre 90 techniciens lors de son ouverture, l’entreprise a réalisé un premier investissement de 2 M€. Elle devrait remettre la même somme sur la table dans les années à venir. La SSDI a également bénéficié de soutiens financiers. La métropole de Montpellier ainsi que la région Languedoc Roussillon la subventionnent en effet à hauteur de 250 K€ chacune. Il faut ajouter à cette enveloppe une prime d’aménagement du territoire de 900 K€ accordée par l’Etat.

Dix villes en concurrence

Comme le relate nos confrères du Midi Libre, ces aides n’ont pas fait l’unanimité lors d’une réunion du conseil de la Métropole de Montpellier qui se tenait la semaine dernière. Quand certains conseillers se sont demandés s’il fallait offrir des deniers publics sans contrepartie pour générer de l’activité économique, d’autres ont littéralement parlé de racket pour un groupe qui « fait plus de 20 Md€ de chiffre d’affaires [Ndlr : Computacenter a plutôt généré 4,2 Md€ de revenus en 2014]» Le dossier Computacenter a toutefois été défendu par Philippe Saurel, le président de l’agglomération et maire de Montpellier, ainsi que sa vice-présidente chargée de l’économie. Cette dernière a notamment fait valoir que dix villes étaient en concurrence pour accueillir le centre de services français de la SSDI.

Les ventes mondiales de tablettes diminuent toujours

 

Le marché des tablettes a connu son deuxième trimestre consécutif de baisse au premier trimestre 2015. Tandis que Apple et Samsung enregistrent des livraisons respectivement en baisse de 22,9% et 16,5%.

Evolution des parts de marché des principaux fabricants de tablettes dans le monde  entre les premiers trimestre 2014 et 2015. Cliquez sur  l'image pour  l'agrandir.

Évolution des parts de marché des principaux fabricants de tablettes dans le monde entre les premiers trimestre 2014 et 2015.

 

Après avoir reculé pour la première fois de leur histoire (-3,2%) au cours du quatrième trimestre 2014, les livraisons de tablettes poursuivent leur chute. Selon IDC, il ne s’est en effet vendu que 47,1 millions de ces terminaux (y compris les matériels deux-en-un) dans le monde entre janvier et mars derniers, soit 5,9% de moins qu’à la même période il y a un an. « Il existe des gisements de croissance qui commencent vraiment à compter, indique néanmoins Jean-Philippe Bouchard, analyste au sein du cabinet d’études. Le segment des tablettes capables de se connecter aux réseaux cellulaires connait ainsi une forte croissance. Les produits deux-en-un, qui ne constituent encore qu’une faible part du marché des tablettes, connaissent eux aussi un fort dynamisme. »

Lenovo et LG tirent leur épingle du jeu

Avec la décroissance globale des ventes de tablettes au premier trimestre 2015, Apple et Samsung ont été considérablement touchés. Le premier a vu ses ventes en volume se replier de 22,9% et sa part de marché passé de 5,9 points à 26,8%. Samsung, le numéro deux mondial a été un peu moins touché mais enregistre tout de même des livraisons en baisse de 16,5%. Le fabricant coréen a ainsi capté 19,1% du marché au premier trimestre 2015 contre 21,6% il y a un an. De son côté, Lenovo se situe sur la troisième marche du podium avec 5,3% de part de marché (+1,2 point). Le chinois doit cette progression à des ventes en hausse de 23%. Il est ainsi passé devant Asus dont les livraisons ont chuté de 30,6% durant le trimestre écoulé. Quant à LG, il prend la cinquième place du marché mondial des tablettes dont il a généré 3,1% des volumes de ventes trimestriels, contre 0,2% seulement au premier trimestre 2014.

Sécurité : Il ne faut plus négliger le facteur humain !

Dans sa dernière étude intitulée « Le Facteur Humain », Proofpoint indique que les pirates ont, l’an denier, décidé d’opérer au niveau des entreprises, et non plus auprès du grand public. Ils se sont donc concentrés sur les processus de partage d’informations utilisés par les cadres, tout en privilégiant l’élaboration des attaques, et non plus leur volume.

Les résultats de cette étude prouve que le comportement des utilisateurs, et pas uniquement les failles d’un système ou d’un logiciel donné, a une incidence importante sur la sécurité des entreprises. « Le facteur humain constitue l’un des éléments clés des programmes de sécurité, alors qu’il est souvent celui que l’on néglige le plus, indique Nick Hayes, Christopher McClean et Claire O’Malley. C’est bien là le problème. En effet, les solutions de sécurité se révèlent fondamentales si vous souhaitez protéger votre environnement de travail, mais ne sont d’aucune utilité si des actions humaines viennent les affaiblir« .

Malgré cela, de nombreuses entreprises adossent leur sécurité uniquement sur des technologies avec passerelle et n’optent pas pour des solutions de blocage, de protection contre les attaques ciblées, de détection et de gestion des menaces (qui sont toutes basées sur les utilisateurs plutôt que sur l’infrastructure).

L’étude révèle également que les cadres constituent une cible privilégiée. L’an dernier, ils ont été deux fois plus ciblés qu’en 2013, et leurs clics sur des liens dangereux ont doublé. Du côté des services, ce sont ceux dédiés à la vente, aux finances et à l’approvisionnement (chaîne logistique) qui ont été plus touchés. Proofpoint note que les attaques se produisent surtout pendant les heures de travail. La plupart des messages malveillants se produisent principalement le mardi et le jeudi matin. Le mardi est la journée la plus critique, avec 17 % de clics de plus que les autres jours.

Finalement, même si les utilisateurs deviennent plus vigilants, les cybercriminels s’adaptent eux aussi rapidement. Ainsi, le nombre de mails intégrant des pièces jointes douteuses, et non plus des URL (notifications, avertissements à caractère financier), s’est multiplié. L’an dernier, durant certains jours, Proofpoint a même constaté une augmentation de 1 000 % du volume des pièces jointes malveillantes. Cette année, la donne est différente, les fausses sollicitations par mail faisant état de réception de fax ou de messages vocaux, voire d’alerte à caractère financier (facture, relevés de comptes, etc.).

« Il existera toujours une personne qui cliquera sur un lien, et permettra ainsi aux menaces de se propager auprès des utilisateurs, confirme Kevin Epstein, Vice-Président en charge de la gouvernance et de la sécurité avancée chez Proofpoint. L’approche de Proofpoint est efficace car nos systèmes sont capables d’identifier les individus concernés, de localiser ces derniers et de déterminer les actions en cours. Ainsi, nous permettons aux organisations de se protéger activement, ainsi que de prendre, en temps réel, les mesures adéquates« .
 

Les vols de données des cartes bancaires coutent 544 millions d’euros à la France

Check Point Software Technologies révèle que les consommateurs européens perdent chaque année plus de 1,7 milliard d’euros en raison des vols des données présentes sur les cartes bancaires. En France, les pertes ont atteint 544 millions en 2013. Il est classé 3ème rang mondial derrière le Royaume-Uni et les Etats-Unis.

Si la France n’est pas épargnée, la situation la plus critique en matière de sécurité bancaire, c’est aux Etats-Unis qu’on la trouve. Chaque année, l’économie américaine perd environ 5 milliards de dollars à cause des vols de données bancaires. L’an dernier, une seule attaque menée contre Home Depot a permis de compromettre 56 millions de cartes bancaires. Et ce, alors qu’en 2013, des pirates avaient détourné les données de plus de 40 millions de cartes bancaires à la chaîne de supermarchés Target.

Reste que ni le Royaume-Uni, ni la France ne peuvent parader. En 2013, les deux pays ont perdu respectivement 674 millions et 544 millions d’euros. Ce qui représente plus de 62% de la fraude à la carte bancaire en Europe. La bonne nouvelle c’est que la France présente une des plus faibles progressions du taux de vol parmi tous les pays d’Europe. En revanche, d’importantes pertes ont été relevées en Allemagne (147 millions d’euros) et en Espagne (116 millions d’euros), mais ces chiffres sont en baisse depuis quelques années. Quand à la Russie les pertes sont à l’ordre de 131 millions d’euros en 2013, soit une augmentation de 28% par rapport à l’année précédente.

Les experts Check Point estiment que la menace la plus importante pour la sécurité des cartes bancaires réside dans les attaques menées contre les terminaux de paiement. En exploitant des vulnérabilités logicielles et en utilisant des malwares, les pirates sont en mesure d’utiliser des accès à distance pour dérober des données lues par les terminaux pendant les transactions. C’est ainsi qu’ont pu être dérobées les données des transactions chez Home Depot et Target aux États-Unis. Les utilisateurs américains sont d’ailleurs particulièrement exposés à ces menaces en raison de l’obsolescence de leurs systèmes de paiement.

Les experts de Check Point Technologies indiquent que les cartes bancaires européennes, bien qu’équipées de technologies de sécurité plus sophistiquées (puces et codes PIN), sont aussi facilement utilisables aux États-Unis où la protection est uniquement limitée à la bande magnétique. Ils estiment par ailleurs que le prix d’une carte Visa ou MasterCard dérobée aux États-Unis est d’environ 4 dollars, tandis que les données d’une carte bancaire européenne peuvent valoir jusqu’à cinq fois plus, soit 20 dollars !

Microsoft : un CA de 21,7 Md$ pour son troisième trimestre (Résultats)

Pour son 3e trimestre 2015, le CEO de Microsoft Satya Nadella, a annoncé un chiffre d'affaires en progression mais des bénéfices en recul. (crédit : D.R.)

Pour son 3e trimestre 2015, le CEO de Microsoft Satya Nadella, a annoncé un chiffre d’affaires en progression mais des bénéfices en recul.

Pour son 3e trimestre fiscal 2015, Mirosoft a enregistré un chiffre d’affaires de 21,7 milliards de dollars, en croissance de 6% sur un an. Les revenus issus du cloud ont grimpé de 106%, tirés par Office 365, Azure et également Dynamics CRM Online, alors que les ventes de licences Windows ont lourdement reculé.

Microsoft a fait état de résultats financiers meilleurs qu’escomptés pour son 3e trimestre fiscal 2015 qui vient de s’achever. Les fortes ventes de ses services cloud comme Office 365, Azure et également Dynamics CRM Online y ont contribué. La firme de Redmond a enregistré un chiffre d’affaires global de 21,7 milliards de dollars, en hausse de 6% d’une année sur l’autre, dépassant pour l’occasion le consensus des analystes qui tablaient sur un CA de 21,1 milliards. En revanche,  les bénéfices ont reculé de 5% à 6,59 milliards de dollars contre 6,97 un an plus tôt.

Les revenus issus de l’activité « Commercial » de Microsoft ont progressé de 5% (7% à taux de change constant) pour se hisser à 12,8 milliards de dollars. Dans un communiqué, la société a précisé que le chiffre d’affaires issu du cloud a bondi de 106%, porté par Office 365, Azure et Dynamics CRM Online. Les ventes de produits et services serveurs ont de leur côté enregistré une progression de 12% tandis que les versions premium de Windows Server, System Center Server et de SQL Server ont connu une croissance de 25%.

Les ventes de licences OEM Pro en recul de 19%

En revanche, les logiciels et services liés aux versions Office sur site ont reculé de 2%, tout comme les revenus des ventes de licences en volume de Windows. La chute est encore plus sévère pour les ventes de licences Windows Pro vendues dans les configurations systèmes des fabricants de PC : 19%. Et cela a été pire encore pour les licences OEM non pro, qui ont chuté de 26%. La période post-Windows XP semble ainsi plus que jamais dure à digérer pour Microsoft d’autant que la firme de Redmond ne pourra guère compter sur Windows 10 pour faire rentrer du chiffre, la mise à jour vers cet OS étant prévue d’être gratuite pour la plupart des utilisateurs. Au final, les investisseurs ont accueilli ces résultats assez chaleureusement, l’action de Microsoft ayant pris 3% sur le marché boursier quelques heures après leur publication.

Next Page

%d blogueurs aiment cette page :