Le Monde d'Antigone

Ni rouge, ni noir, ni vert. L'autonomie rejette partis,
syndicats et toute forme de gestion et de pouvoir.
Rassembler des foules sous un même drapeau
trouve toujours son origine dans une imposture.
Seule une révolution mettra fin à un système
dont l'obsession de l'argent entraine l'humanité
vers la catastrophe.

Rubriques

>> Toutes les rubriques <<
· 37 - Lointains échos dictatures africain (400)
· 00 - Archivage des brèves (785)
· .[Ec1] Le capitalisme en soins intensifs (550)
· 40 - Planète / Sciences (389)
· 10 - M-O. Monde arabe (385)
· . Histoires et théories du passé (223)
· 20 - Japon, Fukushima (237)
· .[Ec2] Métaux, énergies, commerce (253)
· 24 - USA (306)
· 19 - Chine [+ Hong Kong, Taïwan] (322)

Statistiques

Date de création : 10.03.2011
Dernière mise à jour : 05.01.2026
8696 articles


Rechercher

Le big business du big data

Publié le 24/07/2016 à 08:14 par monde-antigone


A l'heure où les banques centrales s'interrogent sur la possibilité de déverser des milliards sur vos comptes bancaires ("l'helicopter money") pour vous pousser à CONSOMMER, les grosses entreprises ont trouvé dans le big data le moyen d'optimiser la relation clients, de doper leurs ventes et de dégager un maximum de profits.

Plus on clique sur internet, plus on laisse des traces, plus on est pistés, fliqués, espionnés. Chaque fois que vous vous connectez sur un site (Le Monde d'Antigone par exemple) ou que vous faites des recherches, vous activez des cookies, des robots qui transmettent des informations vers des logiciels qui les analysent via des algorithmes et vers des serveurs qui les stockent au frais dans de gigantesques centres de données (les datacenters). Ils en font un traitement approfondi qui, au bout du compte, définira votre profil. Toute cette masse incroyable d'informations, de photos et vidéos collectées et stockées compose ce qu'on appelle le "big data".

Aujourd'hui il n'existe plus une entreprise de pointe, ni même une administration, qui ne l'utilise pour adapter leur stratégie, pour savoir qui vous êtes intimement, pour vous proposer des pubs, les "meilleurs produits", personnaliser leurs services. On devance vos attentes; on vous pousse à consommer avant que vous en ressentiez le besoin. On ne vous demande même pas votre avis; c'est pour votre bien ! On vous fait un grand sourire...

Google, Amazon, Facebook, Microsoft, etc. savent que les gens finissent par adopter ce qu'on leur impose au nom du progrès et d'une vie plus pratique. Ils ont bien compris que cette masse de données qui gonfle à chaque seconde, dont la quasi totalité n'existait pas il y a encore quelques mois, est un trésor d'une valeur inestimable, et qu'en investissant dans le "cloud", ils assuraient leur avenir.

Qui contrôle le data contrôle le monde plus efficacement qu'une armée. Mais attention, trop de données finira un jour par noyer l'essentiel et devenir de plus en plus contre-productif. On peut aussi s'interroger sur la solidité du système lorsqu'on s'aperçoit que l'identité du consommateur (le profiling) devient le principal moteur de la consommation et de la croissance mondiale. La bête se nourrit en se dévorant...

Le big data, gros générateur de valeur ajoutée, fait l'objet d'assez peu d'articles... curieusement. En voici quelques uns collectés au cours des 6 derniers mois.


Les flux de data contribuent davantage au PIB que les flux de biens
RFI - 27 mar 2016
http://www.rfi.fr/economie/20160327-flux-data-contribuent-davantage-pib-flux-biens


Pour la première fois, les flux de data contribuent davantage au Produit intérieur brut de la planète que les flux de biens, selon le cabinet McKinsey Global Institute. Jusqu'en 2008 environ, les flux de biens progressaient 2 fois plus vite que le PIB mondial, grâce à l'expansion des firmes transnationales qui ont implanté des usines dans les pays où la main d'oeuvre n'est pas chère. Aujourd'hui, ils stagnent parce que les modes de communication et de consommation ont évolué. Information, recherches, transactions, vidéos, communication, les flux de data ont littéralement explosé. Ils ont été multipliés par 45 ces dernières années et pèsent aujourd'hui 10 % du PIB mondial.

Plusieurs explications à ce phénomène: tout d'abord le développement des marchés émergents. Un équilibrage s'est en effet opéré entre le Nord et le Sud et entre les pays riches et en développement, qui échangent de plus en plus entre eux. Les réseaux sociaux, comme Facebook, WhatsApp, WeChat, et les sites de e.commerce comme Amazon, ou Alibaba surtout dans les pays à forte population comme l'Inde ou la Chine expliquent cette révolution. Selon le cabinet MacKinsey, 12 % du commerce de biens à l'échelle internationale transitent par ces plates-formes et dématérialise les marchés, à commencer par celui du travail. 50 millions de PME dans le monde sont sur Facebook, 10 millions sur Alibaba et 2 millions sur Amazon. L'indice calculé par McKinsey donne Singapour, les Pays-Bas et les États-Unis dans le trio de tête des pays les plus « connectés ». L'Allemagne se classe 4e, le Royaume-Uni 6e et la France 8e.
 

Explosion du stockage pour le Big Data d'ici à 2019
par la rédaction de ZDNet - 14 jan 2016
http://www.zdnet.fr/actualites/explosion-du-stockage-pour-le-big-data-d-ici-a-2019-39831168.htm


Le marché EMEA de l'infrastructure des datacenter utilisés pour le Big Data va tripler sous 3 ans annonce IDC. L'étude du cabinet porte sur le marché des serveurs, du stockage, et des ressources de cloud utilisées dans les datacenters utilisés pour des activités de Big Data. IDC prévoit que les livraisons de serveur destinés à alimenter en puissance de calcul ces centres de données passeront de 6 % de part de marché (sur l'ensemble des serveurs livrés dans cette zone) à 16 % en 2019. Soit un chiffre d'affaires passant de 1 milliard de dollars en 2015 à 2,7 milliards de dollars en 2019.

De quoi donner du souffle, et surtout de l'espace de stockage aux projets de Big Data, qui en exigent toujours plus. Au total, ce ne serait pas moins de 20 Exaoctets de stockage qui serait disponible pour les projets de Big Data à cette date. Soit une valeur de 2,7 milliards de dollars. Pour l'année écoulée, IDC précise que 134.000 serveurs ont été livrés par les fabricants pour alimenter des projets de Big Data, et ce pour 764 Pétaoctets de stockage.

« Le Big Data et l'analytics sont en tête de l'agenda des cadres et des développeurs, la technologie a évolué et les mentalités commencent à changer dans les organisations de la région EMEA » explique Andreas Olah, analyste chez IDC. « Le principal défi ce ne sont pas les données ou le volume, mais la capacité à générer de la valeur à partir de celle-ci. De nombreux clients sont encore au début de leurs projets et ne savent toujours pas par où commencer. D'autres ont des ambitions élevées et des idées claires, mais sont ralentis par la complexité croissante, le manque de scientifiques hautement qualifiés, et de développeurs ».


Comment les marques veulent exploiter le filon du "big data"
par Keren Lentschner
Le Figaro - 01 jul 2016
http://www.lefigaro.fr/societes/2016/07/01/20005-20160701ARTFIG00018-comment-les-marques-veulent-exploiter-le-filon-du-big-data.php


L'analyse des données est un enjeu clé pour les marques de grande consommation, qui doivent améliorer la connaissance de leurs clients afin de parfaire leur expérience en magasin. Après avoir investi les réseaux sociaux et planché sur leur stratégie digitale, les marques de grande consommation partent à l'assaut des données de masse, le big data. C'est l'un des défis de la quatrième révolution industrielle. Si 29 % des dirigeants ont aujourd'hui une stratégie en ce sens, ils devraient être 2 fois plus nombreux d'ici à 2 ans, selon l'étude réalisée par le cabinet de conseil KPMG qui a interrogé 400 dirigeants de la grande consommation issus de 27 pays (dont la France). L'utilisation d'outils d'analyse prédictive et de l'intelligence artificielle devrait également doubler d'ici à 2018, selon KPMG.

Le big data, qui est utilisé depuis plusieurs années par des secteurs aussi divers que l'aérospatial, les assurances ou la Formule 1, fait référence à l'explosion du volume des données dans l'entreprise et des nouveaux moyens technologiques qui existent pour les traiter. Ces informations - qu'il s'agisse de données collectées sur les sites web des entreprises, lors du parcours d'achat en magasins, d'études de marché ou d'informations internes - présentent, en effet, un fort enjeu commercial et marketing dont les marques commencent à prendre la mesure.

Dans quel but ? L'enjeu du big data est de les aider à mieux cerner les comportements et les attentes des consommateurs. « Industriels et distributeurs cherchent à offrir des expériences consommateurs plus personnalisées et pertinentes, explique Emmanuel Hembert, associé KPMG, spécialiste de la grande consommation. Il leur faut aussi optimiser leurs coûts et mieux anticiper la chaîne logistique. En permettant de mieux cibler la demande des consommateurs, le big data peut être d'une aide précieuse. Pour les distributeurs, confrontés à la concurrence féroce d'e-commerce, cette adaptation est une question de survie ! ». Des outils comme Microsoft Azure permettent ainsi à n'importe quelle entreprise - et pas seulement aux plus grosses d'entre elles - d'avoir accès à des données sophistiquées. Dans son magasin vitrine aux Pays-Bas, Ikea a ainsi utilisé récemment les données mobiles de ses clients afin d'étudier leur parcours et d'évaluer leur temps d'attente aux caisses. Cela a permis de réduire les files d'attente de 30 % en périodes d'affluence.

Côté industriels, l'enjeu est de (re)nouer un contact direct avec les consommateurs sans les intermédiaires habituels que sont les distributeurs. La marque Johnnie Walker (Diageo) a innové sur l'emballage de son whisky Blue Label en apposant une puce électronique sur l'étiquette de sa bouteille. La marque l'utilise pour diffuser ses messages marketing aux consommateurs qui scannent l'étiquette avec leur smartphone. Surtout, elle dispose ainsi d'un outil précieux pour collecter des données liées aux comportements de ses clients à des fins de marketing ou de R&D.

Le fabricant californien de vêtements The North Face a, lui, eu recours à Watson, l'outil d'intelligence artificielle d'IBM afin d'améliorer l'expérience d'achat sur son e-shop. Depuis le mois d'avril, il permet aux consommateurs de poser leurs questions « en direct » et d'obtenir des réponses qui leur permettent d'affiner leur choix parmi plusieurs centaines de références de vêtements disponibles. « Cela permet d'offrir au client une expérience d'achat proche de celle qu'il aurait en magasin avec un vendeur qui l'aiderait à choisir une veste », explique Cal Bouchard, responsable du commerce digital chez The North Face.

L'enjeu pour les enseignes est de mieux s'adapter à l'évolution de leur environnement, qu'il s'agisse d'une nouvelle campagne de pub d'un concurrent ou d'une météo changeante. « Avec le big data, il devient possible d'adapter l'assortiment d'un magasin en fonction du moment de la journée ou de la semaine, du temps ou du niveau de stock afin d'augmenter la rentabilité de l'espace », précise Emmanuel Hembert. Une nouvelle ère en perspective pour le commerce.


La transition de Microsoft vers le cloud a porté ses fruits sur le dernier exercice
par Sebastien Dumoulin
Les Echos - 21 jul 2016
http://www.lesechos.fr/tech-medias/hightech/0211143057388-la-transition-de-microsoft-vers-le-cloud-a-porte-ses-fruits-sur-le-dernier-exercice-2015835.php


Bientôt 3 ans après l'arrivée de Satya Nadella aux commandes de Microsoft, la stratégie du nouveau patron commence à payer: tout miser sur le cloud, c'est-à-dire proposer d'accéder à distance à des ressources informatiques (serveurs, plates-formes de développement, logiciels). Pour la multinationale, habituée à vivre confortablement de la vente de licences de son système d'exploitation Windows et de sa suite bureautique Office, le virage était raide. Mais le semi-remorque Microsoft fait mieux que tenir la route.

Sur son exercice fiscal 2016 , clos au 30 juin, Microsoft a enregistré un profit net de 16,8 milliards de dollars, en hausse de 38 %. Et, sur le seul dernier trimestre, ce profit se montait à 3,1 milliards de dollars, contre une perte d'ampleur équivalente l'année précédente. Le groupe affiche bien un recul de chiffre d'affaires de 8,8 % sur l'année, à 85,3 milliards de dollars. Mais cela tient compte d'une subtilité comptable, qui oblige Microsoft à étaler les revenus tirés de la vente de son dernier système d'exploitation, Windows 10, sur la durée de vie du logiciel. Jusqu'à présent, la firme reportait la totalité du chiffre d'affaires sur un seul exercice - et cette méthode devrait être autorisée à nouveau l'an prochain. En réintégrant les 6,7 milliards de dollars de revenus ainsi différés, le chiffre d'affaires s'établit à 92 milliards de dollars, en recul de seulement 1,4 %. Il progresse même au dernier trimestre de 2 %, à 22,6 milliards de dollars.

Cette embellie tient à deux facteurs. Le premier est que la firme de Redmond a tourné la page de son incursion ratée dans le mobile. Certes, ce sont des revenus en moins. Les ventes de terminaux sur le dernier trimestre, malgré une belle performance de la gamme Surface (en hausse de 9 % par rapport à la même période en 2015), chutent drastiquement: - 35 %, principalement à cause des téléphones (- 70 %). Mais les restructurations liées à la mise en sommeil de cette activité ne pèsent plus sur les comptes. L'an passé, 8 milliards de dépréciations avaient dû être passées au titre de Nokia, le fabricant de téléphones racheté sous l'impulsion de Steve Ballmer, le prédécesseur de Satya Nadella.

La deuxième raison est l'essor des différentes offres cloud de Microsoft. Avec plus de 12 milliards de dollars de revenus en rythme annuel pour son « cloud commercial », Microsoft est « sur les rails pour remplir [son] objectif de 20 milliards de dollars sur l'exercice fiscal 2018 », a assuré Satya Nadella lors de sa conférence téléphonique avec les analystes. Comme à son habitude, Microsoft n'a pas donné de détails sur les composantes de ce « cloud commercial », appellation nébuleuse s'il en est, qui mélange des choux et des carottes informatiques - en l'occurrence ses offres de logiciels bureautiques (Office 365) et d'infrastructures (Azure) accessibles à distance. Même si Satya Nadella a précisé qu'au dernier trimestre «  les revenus et l'utilisation d'Azure ont progressé de plus de 100 % », cela rend compliquée la comparaison avec son principal concurrent pour les infrastructures (et numéro un mondial), Amazon Web Services, qui a annoncé qu'il franchirait la barre des 10 milliards de dollars de revenus cette année.

Cela étant, la stratégie cloud de Microsoft est une réussite. Sa division cloud intelligent, qui regroupe les produits pour serveurs, les logiciels de mobilité en entreprise et son offre de cloud Azure, affiche une forte progression sur l'année (+5,6 %) et pèse de plus en plus lourd, passant de 25 % des revenus en 2015 à 27 % cette année (hors ajustement comptable), et même 30 % au dernier trimestre. En parallèle, la division grand public (Windows, Xbox, Surface...) voit sa part diminuer, passant de 46 % des revenus en 2015 à 44 % en 2016 et 39 % au dernier trimestre. Le virage a été correctement négocié. Satya Nadella doit maintenant appuyer sur l'accélérateur.


Intel licencie 12.000 personnes pour se recentrer le datacenter et l'IoT
par Jean Elyan avec IDG NS
Le Monde de l'informatique - 20 avr 2016
http://www.lemondeinformatique.fr/actualites/lire-intel-licencie-120000-personnes-pour-se-recentrer-le-datacenter-et-l-iot-64578.html


Intel n'est plus une entreprise entièrement dévolue au PC. Le fondeur mise désormais sur le datacenter et sur l'Internet des objets pour assurer sa croissance. Pour réaliser ce recentrage, Intel supprime aussi 12.000 emplois. En général, les annonces de licenciements imminents sont souvent le signe d’un ralentissement sévère de l’activité. Mais cela n'a pas vraiment été le cas d’Intel. Le fondeur a enregistré un bénéfice net de 2 milliards de dollars, équivalent à l’an dernier, et une augmentation de ses revenus de 7 % à 13,7 milliards de dollars. Certes, c’est un peu moins bien que ce qu’attendaient les analystes, qui avaient tablé sur des bénéfices à 13,8 milliards de dollars et une augmentation de ses actions de 0,47 $, contre les 0,42 $ annoncés par l’entreprise. Celle-ci a également signalé une charge de 1,2 milliard de dollars pour la restructuration. Mais l’essentiel de tout cela, c’est que le chiffre d'affaires d’Intel a été tiré par toute autre chose que l’activité PC. Le Computing Group Client a enregistré des revenus de 7,5 milliards de dollars, en baisse séquentielle de 14 %.

Dans une note de service, le CEO [Chief executive officer ou directeur général de l'entreprise; ndc], Brian Krzanich, a exposé sa nouvelle stratégie. « Au cours de la dernière année, nos résultats montrent que nos choix stratégiques sont pertinents et que nous disposons d’une base solide pour assurer notre croissance », a-t-il déclaré. « Nous devons maintenant encourager cette dynamique et miser sur nos atouts. Ces changements nous engagent sur le long terme pour faire d’Intel le leader du monde connecté et intelligent », a ajouté le CEO. « J’ai confiance et je sais que nous pouvons devenir une entreprise plus productive, dont les activités toucheront de plus grands marchés, dans des domaines pointus ». Les déclarations d'Intel ne sont pas vraiment surprenantes, car l’entreprise a déjà amorcé sa transition depuis janvier. Il y a peu, avec le déclin des marchés de la tablette, du mobile et des PC, les analystes commençaient à prédire un ralentissement de la vente de processeurs. Reste que, l’éloignement d’Intel du marché du PC provoque chaque fois des ondes de choc dans la Silicon Valley.

Intel a déclaré que ses principaux vecteurs de croissance reposeraient sur le datacenter et l'Internet des objets, un marché tourné vers le cloud et un autre vers des milliards d’appareils intelligents connectés. Le Data Center Group d'Intel a enregistré à un an d’intervalle une augmentation de 9 % du chiffre d'affaires à 4 milliards de dollars, tandis que son groupe IoT affiche un bond de 22 % sur la même période, à 651 millions de dollars. En ce qui concerne les autres divisions d'Intel, le Non-Volatile Memory Solutions Group, également remanié, affiche un chiffre d'affaires en baisse de 6 % à 557 millions de dollars, et l’Intel Security Group gagne 12 % à 537 millions de dollars.

Le directeur financier en poste, Stacy Smith, changera également d’affectation: il supervisera les ventes, la fabrication et les opérations. Comme l’a déclaré l’entreprise, les licenciements prendront effet dès maintenant et seront étalés jusqu'à la mi-2017. « Intel va procéder à des consolidations de sites au niveau mondial, combiner des départs volontaires et involontaires, et réévaluer ses programmes ». Selon le fondeur, « ces licenciements permettront à l’entreprise d’économiser environ 750 millions de dollars cette année, et 1,4 milliard de dollars par an à partir de la mi-2017 ».


Google obtient le feu vert pour réaliser sa bibliothèque numérique géante
par Shahzad Abdoul
Yahoo! actualités - 18 avr 2016
https://fr.news.yahoo.com/usa-google-peut-poursuivre-projet-bibliotheque-numerique-geante-143238362.html


Une décision de la Cour suprême des Etats-Unis a ouvert lundi [18 avril] un boulevard pour le projet de bibliothèque numérique géante de Google, qui devrait rassembler des millions d'ouvrages, freiné depuis plus d'une décennie par des recours en justice sur les droits d'auteurs. Le projet Google Books, lancé en 2004, revient à constituer la plus grande bibliothèque numérique jamais créée. Plus de 20 millions d'ouvrages ont déjà été scannés, dont une partie seulement est libre de droits. La plus haute juridiction des Etats-Unis a débouté, sans apporter de commentaire, un recours du syndicat américain des auteurs (Authors Guild) qui faisait appel d'une précédente décision de justice, lorsque des écrivains avaient assigné Google en justice, estimant que la numérisation d'ouvrages sans leur consentement enfreignait leurs droits d'auteur. La justice américaine avait déjà donné raison à Google.

Sans autoriser directement le géant californien à réaliser son projet Google Books, la décision de la Cour suprême lui permet donc de le poursuivre en consolidant ce précédent arrêt daté de 2013. "Nous sommes reconnaissants que la Cour (suprême) ait décidé de consolider la décision de la Cour d'appel qui avait conclu que Google Books a un effet transformateur et est en adéquation avec la loi sur les droits d'auteur", a réagi le groupe de Mountain View. Ce nouveau "produit", a poursuivi Google dans son communiqué, offre une "nouvelle manière de trouver et d'acheter des livres tout en améliorant les intérêts des auteurs". Google Books est présenté comme un outil de recherche qui permet de balayer le contenu de millions de livres. Il ne propose que des extraits aux internautes, pas leur totalité, et renvoie vers des liens permettant de les acheter. La décision de la Cour suprême met fin à une bataille judiciaire qui dure depuis plus d'une décennie.

Dès 2005, trois auteurs américains, Jim Bouton, Betty Miles et Joseph Goulden avaient assigné Google en justice contre ce projet. Déboutés dans un premier temps en novembre 2013, une Cour d'appel avait confirmé cette décision en octobre dernier. Le juge fédéral Denny Chin avait alors considéré que Google Books offrait une "utilisation équitable" sans fournir "un substitut véritable" à ces ouvrages protégés par le code américain sur le droit d'auteur. Les auteurs contestaient par ailleurs le fait que Google mette les ouvrages numérisés à disposition de bibliothèques avec lesquelles il a passé des accords. Les soutiens du géant de l'informatique estiment eux que le projet gigantesque va bénéficier autant au grand public qu'aux chercheurs.  Krista Cox, de l'association des bibliothèques de recherche, a ainsi salué dans un tweet la décision de lundi, évoquant une "victoire de l'utilisation équitable". "Il s'agit d'une issue formidable pour les bibliothèques et le public", a abondé Nancy Sims, de l'université du Minnesota. (...)


Comment le Big data impacte le Cloud computing ?
par Pierre Mangin
ZDnet - 09 dec 2015
http://www.zdnet.fr/actualites/comment-le-big-data-impacte-le-cloud-computing-39829534.htm


Selon l'institut d'études IDATE, « le développement du Cloud computing est avant tout lié à des enjeux en termes d'infrastructures ». Il s'organise autour de puissants datacentres et du sous-segment de marché IaaS (Infrastructure as a Service) mettant à disposition des « ressources informatiques distribuées à la demande ». Ce segment, « le plus diversifié du cloud en termes d'écosystème », continue d’attirer tous les acteurs positionnés dans l'infrastructure, « dont ceux qui disposent de grosses bases de données (les éditeurs, les intégrateurs) »,  souligne Julien Gaudemer, analyste de cet institut à Montpellier.

Le Cloud reste donc un levier du mouvement incitant les organisations vers le Big Data: « Jusqu'ici, avec l'émergence du concept de Big Data", les données étaient principalement traitées de façon locale, dans des entrepôts de données (ou data warehouses) constitués de plusieurs bases de données structurées », explique-t-il. « Peu à peu les sources de données se sont largement diversifiées et sont devenues relativement hétérogènes (format des données très variable) et ont été surtout localisées sur Internet ».

Autre particularité, ces informations sont produites de façon continue et à un rythme soutenu. Pour traiter ces volumes d'informations et ces flux de données, il est nécessaire de mobiliser d'importantes ressources de calcul souvent uniquement disponibles dans de grands datacentres. Le Cloud computing doit donc s'adapter pour louer de puissants moyens de calcul, « dotés de larges capacités de stockage extensibles, adaptés aux traitements des Big data ».

Rares sont les entreprises capables d'effectuer de tels traitements avec leurs propres infrastructures. Le Cloud, avec des offres IaaS, peut ainsi mettre le Big data à la portée des PME et des acteurs non experts du traitement des données. Au niveau technologique, les traditionnelles solutions de data mining ne sont plus adaptées à ces nouveaux types de données. Des produits logiciels innovants ont été développés. Des bases de données non structurées, dont celles dites NoSQL, sont apparues dans des formats souvent très différents.

De son côté, Google a développé l'environnement de développement applicatif MapReduce qui permet de répartir les traitements en plusieurs sous-ensembles en les distribuant en parallèle sur plusieurs serveurs en grappes (ou clusters). De cet environnement est née la plateforme Hadoop développée par la fondation Apache, aujourd'hui largement répandue dans la sphère Big data. 

Pour sa part, Solucom rappelle que, dès 2009, les fournisseurs d'offres Cloud ont su adapter leur infrastructure pour proposer les premières offres Big data as a Service (BDaaS) – « des solutions combinant les nouvelles technologies Big Data (comme Hadoop ou Big Table) avec celles du Cloud. (...) Aujourd’hui, ils proposent de nouvelles offres centrées autour de la gestion de la donnée ». Parmi elles, l’offre Data as a Service (DaaS) permet aux entreprises de mettre à disposition des utilisateurs, via une plateforme Cloud, « divers jeux de données nettoyées et enrichies, afin de servir des besoins d’analyse », observe la SSII.

Par ailleurs, le cabinet d'études Markess constate que les outils et processus d'exploitation de données (internes et/ou externes) utilisés par les entreprises sont insuffisants aujourd'hui pour répondre à leurs besoins métiers, « notamment en ce qui concerne les données externes ou pour des fonctions analytiques avancées (type analyse comportementale, prédictive…) ». Des changements s'imposent: « Qu’il s’agisse de stockage de données en volume, de traitement temps réel ou d’analyse de données variées, les décideurs reconnaissent que leurs approches ne sont pas adaptées ». Les nouveaux besoins qu’ils émettent accordent « une place clé au modèle du Cloud computing ».

Des services Hadoop à la demande devraient retenir de plus en plus l’attention des décideurs dans ce domaine.  Le cabinet d'études Markess relève que les annonces de cette année 2015 témoignent de la « convergence engagée entre le modèle du cloud computing et les big data : S/4HANA dans le cloud public, Hadoop as a Service (HaaS), Splunk Cloud… ». Et, conséquence, le Big data, « en obligeant à rendre interopérables différents environnements, incite au développement d'API (interface programmatiques) et de plates-formes d’intégration de services dans le Cloud ». En clair, ce sont là autant d'axes cruciaux qui vont se prolonger en 2016.


Singapour s'apprête à tester des datacenters pendant les fortes chaleurs
par la rédaction de ZDNet - 22 jul 2016
http://www.zdnet.fr/actualites/singapour-s-apprete-a-tester-des-datacenters-pendant-les-fortes-chaleurs-39839984.htm


Singapour est en train de créer des environnements de tests pour évaluer si les datecenters peuvent fonctionner à des niveaux optimaux même dans des climats tropicaux plus chauds. Le 30 mai dernier, l'Infocomm Development Authority (IDA) a déclaré travailler avec différents acteurs de l'industrie pour évaluer la faisabilité d'un "datacenter tropical". Les températures ambiantes seront testées jusqu'à 38°C et l'humidité ambiante à 90 % ou plus. (...)

Alors que les équipements des datacenters peuvent fonctionner normalement à des températures plus élevées, les meilleures pratiques de l'industrie recommandent généralement entre 18 et 27°C. D'après une étude de 2013 menée par le spécialiste de la gestion de l'énergie Enlogic Systems, 60 % des administrateurs de datacenters interrogés à Hong Kong estimaient que le fonctionnement des datacenters était sûr jusqu'à 25°C. À Shanghai, ils étaient 51 % à le considérer sûr à des températures jusqu'à 30°C.

Les fournisseurs informatiques étudient des moyens de construire des équipements qui pourraient permettre aux installations des datacenters de fonctionner à des températures plus élevées. En 2012, Intel s'est associé à l'opérateur mobile coréen KT pour tester une technologie pouvant permettre aux datacenters de fonctionner à plus de 38°C. L'idée était de réduire les coûts énergétiques de 7 % pour chaque degré supplémentaire. Si l'objectif de 38°C était atteint, l'économie d'énergie annuelle s'élèverait à 7,5 millions de dollars. À travers ses essais, l'IDA espère réduire la consommation d'énergie des datacenters jusqu'à 40 % et diminuer les émissions de carbone.

Un datacenter tropical de démonstration devrait être mis en place au 3e trimestre et dans un environnement de tests contrôlé situé sur un site appartenant à Keppel Data Centres. L'essai évaluera notamment l'impact sur la fiabilité et les performances des équipements informatiques du datacenter dans des conditions de fonctionnement à des températures et une humidité élevées. (...) Les tests, exécutés 24h/24 et 7j/7, seront effectués sur des charges de serveur simulées et lors du transfert de volumes importants de données entre les réseaux et les dispositifs de stockage. Les environnements d'essai potentiels pourraient détecter l'absence de contrôles de la température ou de l'humidité, ajoute l'organisme de réglementation de l'industrie.

La nouvelle initiative fait partie du programme de Singapour pour un datacenter écologique, lancé fin 2014 et qui vise à améliorer l'efficacité énergétique des datacenters. Fujitsu, HPE, Huawei, Intel, Keppel Data Centres, The Green Grid et l'université technologique de Nanyang font partie des différents partenaires de l'industrie participant à l'essai. Ces partenaires fourniront du matériel, notamment les armoires et l'espace serveur, des logiciels de gestion et de surveillance, ainsi que des experts techniques pour développer les plans de tests. HPE, par exemple, fournira ses serveurs ProLiant Gen9 et Moonshot. Aucun détail n'a été communiqué quant au degré d'implication de chaque fournisseur dans l'initiative. Conjointement à l'IDA, les partenaires de l'industrie évalueront les conclusions de l'essai, qui seront partagées publiquement une fois prêtes.

Khoong Hock Yun, directeur adjoint de l'IDA, déclare: "Avec la croissance continue de Singapour comme pôle de premier choix pour les datacenters, nous voulons développer de nouveaux standards et technologies qui nous permettent d'exploiter des datacenters évolués de la manière la plus économe en énergie possible sous un climat tropical". "De nouvelles idées et approches, telles que l'élévation de la température ou l'humidité ambiante, seront testées pour voir si elles peuvent fortement augmenter notre efficacité énergétique, avec un impact significatif sur les opérations cruciales du datacenter", ajoute-t-il. Citant une étude de McKinsey, l'IDA rappelle que les datacenters représentaient 7 % de la demande énergétique totale de Singapour en 2012. Ce chiffre devrait grimper à 12 % d'ici 2030, à cause de la présence croissante des datacenters dans la cité-État. Plusieurs acteurs majeurs des TIC et d'internet y exploitent actuellement des datacenters, dont Google, Alibaba, LinkedIn et Oracle.


EDIT (20 mars 2018)


La fonctionnalité qui va transformer Instagram en machine à cash est arrivée
par Damien Choppin
Capital - 20 mar 2018
https://www.capital.fr/entreprises-marches/instagram-vous-permet-desormais-de-faire-du-shopping-depuis-une-publication-et-cette-nouveaute-est-importante-pour-lavenir-de-facebook-1278347


Le réseau social lance ce mardi 20 mars sa fonctionnalité "Shopping" en France et dans 7 autres pays. Elle permet aux marques présentes sur la plateforme d'inclure des liens sur les publications Instagram qui redirigent l'utilisateur vers leur site afin d'acheter les produits mis en avant. Jusqu'ici, Instagram n'autorisait pas l'intégration de lien dans une publication. Une marque qui voulait rediriger ses abonnés vers son site devait le faire dans sa bio, à travers une publication dans Stories (grâce à la fonction "glisser vers le haut"), ou à travers l'achat de publicités.

Comment ça marche ? Désormais, n'importe quel compte d'entreprise sur Instagram vendant des produits physiques peut ajouter des liens vers son site à travers un tag sur une publication — comme lorsque vous identifiez un ami sur une photo. Le tag affiche le prix du produit et, en appuyant dessus, l'utilisateur peut lire une description du produit et aller sur le site de la marque pour l'acheter.

Les marques pourront tagger jusqu'à 5 produits par photo, pour un total de 20 tags dans les publications à plusieurs photos. Les utilisateurs auront également accès à un onglet "Boutique" sur le profil de la marque qui permettra de retrouver toutes les publications contenant des produits en vente. Instagram Shopping a été déployé progressivement aux Etats-Unis depuis l'automne 2016 et arrive ce mardi au Brésil, Canada, Royaume-Uni, en Allemagne, Espagne, Italie et Australie, en plus de la France.

Faciliter les achats de produits mis en avant sur Instagram permettra à une marque de mieux convertir en clients les personnes qui visitent son compte. D'après la plateforme, 80 % des utilisateurs d'Instagram sont connectés à une marque et 200 millions de personnes visitent un profil d'entreprise chaque jour.

Guillaume Gilbaut, le fondateur du Slip Français et un des partenaires d'Instagram pour le lancement de Shopping en France, explique qu'une publication de sa marque dans Stories est vue en moyenne 20.000 fois en 24 heures. Un lien posté dans une de ces publication génère autour de 500 clics, affirme-t-il. Avec Instagram Shopping, un nombre plus nombreux d'utilisateurs verront les publications, puisqu'elles restent visible sans limite de temps.

Si le chiffre d'affaire de Facebook, qui possède Instagram, continue d'augmenter, certains indicateurs montrent que la croissance du réseau social principal s'essouffle.  Au 4e trimestre de 2017, le nombre d'utilisateurs actifs quotidiens de Facebook n'a augmenté que de 2,18 % pour s'établir à 1,4 millard, comparé à une hausse de 3,8 % au 3e trimestre, rappelle Techcrunch.

Pour la première fois de son histoire, le nombre d'utilisateurs actifs quotidiens de Facebook aux Etats-Unis et Canada a légèrement baissé, passant de 185 millions au T3 à 184 millions au T4. Et c'est principalement le jeune public qui tourne le dos à Facebook. Le cabinet d'études eMarketer estime qu'aux Etats-Unis, le nombre d'utilisateurs mensuels du réseau social âgés de 12 à 17 ans a baissé de 9,9 % en 2017. Le nombre d'utilisateurs âgé de 18 à 24 ans a quant à lui baissé de 4,7 %.

Dans la tranche d'âge des 12-17 ans, eMarketer prédit une baisse de 5,6 % du nombre d'utilisateurs pour l'année 2018. Où vont-ils ? Vers Snapchat et surtout Instagram. Le cabinet estime que cette année, le nombre d'utilisateurs mensuels dans cette tranche d'âge augmentera de 4,1 % sur Snapchat et de 8,7 % sur Instagram. Une tendance qui pousse eMarketer à prédire une explosion des revenus publicitaires pour Instagram. Facebook ne communique pas sur les chiffres de sa filiale, mais eMarketer estime que les revenus publicitaires de celle-ci pourraient s'élever à 10,87 milliards de dollars en 2019, contre 4,1 en 2017.

Avec Instagram Shopping, Facebook va pouvoir capitaliser sur cette évolution. Car si cette nouvelle fonctionnalité ne coûte rien aux marques, elle leur donne accès à un nombre important de données sur leurs utilisateurs. Les marques pourront savoir combien d'utilisateurs ont cliqué sur un produit, ont consulté sa fiche, et combien, parmi eux, sont allé jusqu'à l'achat. Ces informations permettront aux marques de mieux cibler leur clientèle. Instagram pourra alors utiliser ces données pour mieux vendre des publicités à ces entreprises.

Instagram ne devrait pas s'arrêter là. Le réseau social envisage d'étendre la fonctionnalité Shopping aux services tels que les restaurants ou les cinémas mais ne donne pas encore de date. De son côté, Pinterest a coupé l'herbe sous le pied d'Instagram en lançant sa fonctionnalité "Shop the Look" en France un jour plus tôt.