Sunteți pe pagina 1din 36

Université Hassan II – Mohammedia

Ecole Nationale de Commerce et de Gestion - Casablanca

Encadré par :
Travail réalisé par :
Mme. JEBRAOUI Siham
BOUDI Imane

EL ALAOUI Yousra

HAFDAN Hamza

HISTANE Imane

JAMAL EDDINE Imane

KARTAF Hajar

KORTITO Imane

KODIANE Hajar
Groupe : GFC 2
MAJOUG Khaoula

RIZKI Hajar

1
Année universitaire : 2015/2016
PLAN

INTRODUCTION ................................................................................................................................. 3
I. BIG DATA ..................................................................................................................................... 5
Définition des Big Data ............................................................................................................... 5
Historique ....................................................................................................................................... 5
II. FONCTIONNEMENT OPERATIONNEL ET MISE EN PLACE DU BIG DATA ............. 10
Fonctionnement opérationnel et mise en place ............................................................. 10
Business Intelligence versus Big Data ............................................................................... 14
Big Data : évolution des cas d’usage ................................................................................... 16
III. CARACTERISTIQUES DU BIG DATA .............................................................................. 19
o Volume : ................................................................................................................................. 20
o Vitesse : .................................................................................................................................. 20
o Variété : ................................................................................................................................. 21
IV. ENJEUX ET APPORTS ........................................................................................................ 22
V. LIMITES DU BIG DATA .......................................................................................................... 24
VI. LES RISQUES ........................................................................................................................ 26
VII. CONTRES MESURES ........................................................................................................... 27
VIII. ETUDE DE CAS ..................................................................................................................... 29
CONCLUSION .................................................................................................................................... 35
BIBLIOGRAPHIE ............................................................................................................................. 36

2
INTRODUCTION

L’avènement du numérique, accompagné des nouvelles technologies mobiles a


considérablement augmenté la quantité et la nature des données qui circulent au sein
de l’écosystème numérique. A titre d’exemple, 90% des données dans le monde ont été
créées au cours des deux dernières années. Les données sont partout, des capteurs
utilisés pour collecter les informations climatiques, des messages sur les sites de
médias sociaux, des images numériques, des signaux GPS de téléphones
mobiles...Elles sont aujourd’hui la représentation mathématique ou statistique d’une
activité opérée par un internaute, un détenteur de Smartphone, d’une TV connectée ou
tout autre appareil relié à internet. Elles sont le reflet de sa personnalité, de ses usages,
de ses préférences d’achats, de ses goûts et de ses envies.

Cependant, le terme est vaste et la définition que l’on a des data est souvent floue.
Mais alors, de quoi parle-t-on exactement ? Quelles sont les données à disposition des
entreprises et quelle est leur maturité par rapport au marché de la data ? De grands
acteurs du numérique comme IBM ont, par le passé, apporté bon nombre de solutions
technologiques qui permettent aujourd’hui aux entreprises d’exploiter des données.
Nous pensons notamment aux outils d’informatique décisionnelle, tels que la Business
Intelligence qui permet aux entreprises de connaître et de comprendre les ressorts de
leurs activités (logistique, commerciale, management de la qualité, etc.).

Or des outils comme la Business Intelligence montrent actuellement leurs limites quant
à l’exploitation de ces nouvelles données (commentaires, avis sur les forums, etc.),
comment les entreprises vont-elles opérer cette transition qui s’annonce de toute
évidence complexe ? Ces changements imposent aux entreprises de trouver de
nouvelles solutions pour faire face à cette prolifération des donnés. Lesquelles ?
Dans cette perspective le Big Data est supposé répondre à l’intégralité des enjeux du
marché de la donnée, à savoir, la volumétrie, le temps réel, la variété ou encore la
véracité des données. Le Big Data est un univers qui recouvre trois composantes se
complétant les unes les autres: les données collectées, aujourd’hui massives, liées
notamment à la multiplication des objets connectés; les nouvelles technologies qui
permettent de les traiter, de les stocker, de les analyser de façon toujours plus précise
et à des coûts de stockage et de traitement réduits; des processus et techniques
d’analyse de plus en plus performants permettant de passer de l’ère de l’observation à
celle de la prévision et de l’anticipation.

Le potentiel du Big Data pour les entreprises est considérable. La masse de données
disponibles croît de façon exponentielle. Ces données constituent un gisement de

3
valeur inépuisable et précieux, pourvu que l’on se dote des bons outils pour les
exploiter et les analyser. Grâce à la numérisation croissante des transactions
économiques et des interactions sociales, les données produites embrassent un univers
beaucoup plus large que dans le passé. Elles sont aussi plus précises et plus
personnelles. À côté des outils de transaction traditionnels (cartes de paiement ou de
fidélité, achats en ligne, appels aux services clients, demandes d’informations…),
apparaissent de nouvelles données issues des réseaux sociaux, de l’étude fine des
navigations sur Internet, des objets connectés, qui apportent un éclairage nouveau sur
les goûts, les habitudes de consommation et les centres d’intérêt des consommateurs.
Ces nouvelles sources d’information rendent progressivement obsolètes les méthodes
traditionnelles d’études des consommateurs, comme les panels ou les sondages. La
valeur du Big Data tient dans la richesse, la qualité et la granularité des données
traitées. C’est de cette masse de données, des analyses dont elles font l’objet, des
algorithmes qui permettent de dessiner des profils de consommation personnalisés, que
l’on peut tirer une appréciation très fine, en temps réel, des évolutions des habitudes de
consommation et des comportements. Dotée des meilleurs outils technologiques et
d’analyse, l’entreprise est alors en mesure de prévoir, voire d’anticiper, les décisions
d’achat et les comportements de ses clients.

4
I. BIG DATA
Définition des Big Data
Chaque jour, nous générons 2,5 trillions d’octets de données. A tel point que
90% des données dans le monde ont été créées au cours des deux dernières
années seulement. Ces données proviennent de partout : de capteurs utilisés pour
collecter les informations climatiques, de messages sur les sites de médias sociaux,
d'images numériques et de vidéos publiées en ligne, d'enregistrements
transactionnels d'achats en ligne et de signaux GPS de téléphones mobiles, pour ne
citer que quelques sources. Ces données sont appelées Big Data ou volumes
massifs de données.

Littéralement : Les Big Data sont de grosse données ou volume massif de données
structurées ou non. On parle aussi de Data masse par similitude avec la biomasse.

Conceptuellement : Ce terme vulgarise à la fois la représentation du volume des


données mais aussi les infrastructures liées au traitement de ces données.

Ils désignent des ensembles de données qui deviennent tellement volumineux qu'ils
en deviennent difficiles à travailler avec des outils classiques de gestion de base de
données ou de gestion de l'information.

Historique
Mai 2011. McKinsey & Company publiait un rapport intitulé Big data : The new
frontier for innovation, competition, and productivity . Depuis, pas un jour ne passe
où l’on ne voit sur le Web, un article, l’annonce d’une conférence, la sortie d’un livre
sur la Big data. Toutes les industries se penchent sur le phénomène. La Big data est
devenu le Graal de la technologie, celle qui va tout bouleverser, tout chambouler,
tout révolutionner. De nouveaux métiers (Data Scientist), de nouvelles formations
(Data Science) sont annoncés. Des start-ups ont vu le jour avec des offres
spécialisées, non seulement en Californie, mais à travers le monde. Les acteurs
traditionnels ont ajouté la Big data dans leur offre, du moins sur leurs sites. Les
gouvernements y voient une sortie de la crise qui tétanise le monde depuis la crise
systémique de la planète commerciale.

C’est l’heure de démystifier ce phénomène et de séparer les promesses des réalités.


En effet, la Big data elle est vraiment nouvelle ? La collecte et l’analyse en temps
réel des alarmes, compteurs de performances et des données clients à partir des
réseaux télécom au niveau d’un pays n’étaient-elles pas déjà de la Big data ? Le
traitement quotidien de millions de transactions par des banques de détail, des
bourses électroniques et des réservations aériennes à travers le monde n’était-il pas
déjà de la Big data ?

Ou bien la Big data est-il juste la dernière mode amenée par les éditeurs et sociétés
de logiciel comme le fut l’ERP, le CRM, le e-business pour ne citer qu'elles ? Qu’est-

5
ce qui différencie la Big data de la Data dont nous avons l’habitude pour nos études,
sondages et mesures d’audience ? Quels sont les impacts sur notre métier, nos
savoirs, nos process, nos méthodes et nos systèmes IT ?
Le Big Data a pris naissance dans un contexte particulier. Avec l’explosion des
usages digitaux, des objets connectés, les internautes-consommateurs partagent de
plus en plus d’informations et laissent sur la toile de plus en plus de traces. David
Reinstel et John Grants avaient déjà constaté ce phénomène en 2011 dans une
étude où ils affirmaient que le nombre de « data » collecté dans le monde double
tous les deux ans. Mais les outils traditionnels de gestion de données ont vite été
débordés par cet afflux de données différentes.

Initialement, le phénomène Big Data a été exploité et développé par des sociétés
comme Yahoo!, Google, Amazon, Facebook, qui offrent à leurs internautes, la
possibilité de bénéficier de services gratuits en échange d’informations personnelles.
Pour Amazon, sans moyen de traiter rapidement ces données, la survie de sa
plateforme était engagée. Désormais, la démarche Big Data se développe dans des
secteurs différents : e-commerce, grande distribution ou encore dans la médecine.

Le big data a une histoire récente et pour partie cachée, en tant qu'outil
des technologies de l'information et comme espace virtuel prenant une importance
volumique croissante dans le cyberespace.
L'expression « Big data » serait apparue en octobre 1997 selon les archives de la
bibliothèque numérique de l’ACM (Association for Computing Machinery), dans des
articles scientifiques sur les défis technologiques à relever pourvisualiser les
« grands ensembles de données ».
Selon V. Tréguier (2014) et selon la « très courte histoire du big data » publiés par
Gil Press en 2013 pour la période 1944-2012, sa naissance est liée aux progrès des
systèmes de stockage, de fouille et d'analyse de l'information numérisée, qui ont
permis une sorte de big bang de l'information stockée puis une croissance
inflationniste de l'univers de la donnée numérisée. Mais ses prémisses sont à trouver
dans le croisement de lacybernétique et de courants de pensée nés durant
la Seconde Guerre mondiale, selon lesquels l’homme et le monde peuvent être
représentés comme « des ensembles informationnels, dont la seule différence avec
la machine est leur niveau de complexité. La vie deviendrait alors une suite de 0 et
de 1, programmable et prédictible » ajoute V. Tréguier.
Les évolutions qui caractérisent le big data et ses algorithmes, ainsi que celles de
la science des données sont en partie cachées (au sein des services de
renseignement des grands États) et si rapides et potentiellement profondes que peu
de prospectivistes se risquent à pronostiquer son devenir à moyen ou long termes,
mais la plupart des observateurs y voient des enjeux majeurs pour l'avenir, tant en
termes d'opportunités commerciales que de bouleversements sociopolitiques et
militaires, avec en particulier le risque de voir émerger des systèmes ubiquistes,

6
orwelliens et totalitaires capables de fortement contrôler, surveiller et/ou influencer
les individus et groupes.
Les risques de dérives de la part de gouvernements ou d'entreprises ont surtout
d'abord été décrits par Orwell à la fin de la dernière guerre mondiale, puis souvent
par la science fiction. Avec l'apparition de grandes banques de données dans
les années 1970 (et durant toute la période de la guerre froide) de nombreux auteurs
s'inquiètent des risques pris concernant la protection de la vie privée, en particulier le
Pr. A. Miller qui cite la croissance des données stockées relatives à la santé
physique et psychique des individus.
En 2000, Froomkin dans un article paru dans la revue Stanford Law Review se
demande si la vie privée n'est pas déjà morte, mais ce sont surtout les révélations
d'Edward Snowden (2013) qui ont suscité une nouvelle prise de conscience et
d'importants mouvements de protestation citoyenne.
Les quatre droits et « états de base de la vie privée » tels qu'énoncés par Westin en
1962 (droit à la solitude, à l'intimité, à l'anonymat dans la foule et à laréserve) sont
menacés dans un nombre croissant de situations de même que la protection du
contenu des courriers électroniques qui fait partie du droit à la vie privée.
Croissance de la capacité mondiale de stockage de données et informations

L’explosion des volumes des données nécessite une innovation en terme de :

Bases de données d'analyse massivement parallèle (MPP). Ces bases de données


conformes SQL sont conçues pour répartir le traitement des données sur plusieurs
machines

7
-Redue, Hadoop, et autres approches NoSQL. Ces approches,
appelées collectivement "NoSQL" ou "Not Only SQL" permettent d'accéder aux
données via des langages de programmation sans utiliser les interfaces basées sur
SQL et permettent de répartir les données sur plusieurs machines distinctes.

Datavizualisation : capacité à représenter des données de façon visuelle


(graphiques, diagrammes, cartographies, infographies). Plus largement c’est la
capacité à naviguer rapidement et simplement dans les données.

données (SGBD) qui n'est plus fondée sur l'architecture classique des bases
relationnelles. L'unité logique n'y est plus la table, et les données ne sont en général
pas manipulées avec SQL.

quantités de données non obligatoirement structurées.

utilisant le modèle Map Reduce.

d’utiliser Hadoop.

La Big data n’est pas nouvelle

Au XIXe siècle régnait déjà le monde de la Big data où l’on recensait des
informations sur tous les individus. Où les résultats arrivaient des années plus tard.
C’était l’âge de la collecte manuelle, du papier et du crayon, du calcul manuel. Mais
c’était déjà la Big data de l’époque. La différence par rapport à la Big data du xxie
siècle est l’automatisation et la fréquence de collectes et de traitement des données.
On récupérait les données tous les ans au mieux, on les récupère en continu
désormais. Au XXe siècle est venu le règne de l’échantillonnage. Une véritable
innovation à cette époque. Avec seulement une partie de la population, on pouvait
obtenir les résultats sur l’ensemble de la population et en un temps record comparé à
l’approche exhaustive.

Une grande chaine de distribution fait de la Big data en France depuis l’ouverture du
premier hypermarché il y a plus de 50 ans. Cette chaine dispose de plus de 10
millions de porteurs de carte de fidélité qui représentent plus des trois quarts de son
CA. Chaque achat est mémorisé 24 mois. Le détail de l’historique va jusqu’à la
référence Produit. L’exemple de cette chaine est la preuve que la Big data n’est pas
née, comme on le pense souvent, il y a trois ans.

Il est aussi la preuve que la Big data ne passe pas uniquement par le Web. Si on
totalise toutes les transactions sur tous les points de vente physiques, on arrive à un
chiffre gigantesque de presque un milliard de transactions par an, soit presque 3

8
millions de transactions par jour. L’exemple de cette chaine montre aussi que la Big
data n’est pas uniquement Hadoop et ses technologies dérivées qui sont censées
faciliter la création d’applications. La chaine utilise des technologies SQL issues des
années 90 pour collecter, traiter et analyser ses données massives à travers les
points de vente physiques auxquels il faut ajouter ses sites Web totalisant plus de 5
millions de visiteurs uniques par mois.

La redécouverte de la Big data vient d’une limitation technique. Google et Yahoo


cherchaient à paralléliser le stockage et le traitement des données sur plusieurs
milliers de serveurs banalisés. Les technologies à leur disposition étaient trop
coûteuses pour réaliser ce niveau élevé de parallélisme à la fois pour le stockage et
pour le traitement. La Big data ne crée pas de nouveaux modèles mathématiques ou
statistiques pour l’analyse de données. Elle ne fait qu’augmenter la capacité à
collecter, stocker et traiter ces données. Et de ce fait, elle est le champ d’application
ultime pour les algorithmes sophistiqués de data mining et d’apprentissage
automatique, développés dans les années 70, 80 et 90, et qui auparavant ne
disposaient pas de données massives pour donner tout leur potentiel.

Une évolution et non une révolution

C’est une expansion exponentielle de la variété et de la complexité de la notion de


Data par des textes, des chiffres, des sons, des images et des vidéos provenant de
sources diverses telles que le Web, les puces RFID, les bases de données
météorologiques, etc. Mais c’est aussi une évolution naturelle du traitement des
données, de plus en plus sophistiqué. C’est la suite logique du Web avec ses
catalogues de produits, ses comparaisons de prix et ses logs de visites ; lui-même
étant la suite du CRM avec sa segmentation de clients, des contacts et ses offres
promotionnelles ; lui-même étant la suite de l’ERP avec ses tickets de caisse, ses
enregistrements d’achats et ses enregistrements de paiements.

Au niveau business, nous sommes encore dans la phase d’expérimentation. Comme


pour toute innovation majeure, il y a d’abord la vision. Vient ensuite
l’expérimentation, qui si elle est concluante se transforme en un déploiement pour
devenir plus tard une normalisation, au sens qu’elle ne se définit plus comme une
innovation. Comme pour les ERP, CRM et Web, c’est d’abord l’efficacité et
l’efficience de la relation client qui sont les plus recherchées par les entreprises. Un
autre point important est l’utilisation des technologies sous-jacentes de la Big data
sur les données déjà présentes dans l’entreprise. Un nouveau projet Big data ne veut
pas dire automatiquement chercher à exploiter de nouvelles données ou des
données online, mais utiliser de nouveaux moyens pour faire parler les anciennes, la
plupart disponibles offline.

Le mouvement Big data vient avec des challenges d’un autre ordre que techniques
ou business. Ils sont d’ordre réglementaire, juridique et sécuritaire. Nous citons ici les
obligations déclaratives sur les données et leur usage auprès de la CNIL, l’obligation
de donner aux personnes accès à leurs données pour pouvoir les corriger voire

9
supprimer, l’interdiction de principe de transférer des données sur des personnes de
l’Union européenne en dehors de l’Europe, etc. Ajouter à ces contraintes de
protection de données personnelles des contraintes de propriété intellectuelle et de
protection d’auteur qui rendent difficiles l’exploitation, la diffusion et la monétisation
de ces données récupérées notamment sur des réseaux sociaux et/ou des
plateformes de diffusion de contenu.

Un projet Big data n’est pas uniquement un projet IT, mais un projet plus global se
devant d’intégrer entre autres ces aspects législatifs qui peuvent ralentir le
déploiement ou augmenter le coût du projet initial. Désormais, nous devons
considérer tout projet Big data, surtout s’il est centré consommateurs, comme un
projet business, technique et légal.

La Big data n’est pas une nouvelle technologie bien qu’elle soit apparue avec Google
et Yahoo et leurs développements Hadoop, MapReduce, BigTable, etc. Les
technologies des années 1990 sont utilisées et continueront à l'être avec grand
succès. La Big data ne remplacera pas les ERP, les CRM et les sites e-Business
déjà opérationnels dans les exemples cités précédemment. Il sera une évolution et
une sédimentation des systèmes et des technologies opérationnelles pour la
conduite interne et externe des entreprises et des administrations.

Comme toute innovation technologique, la Big data a été initiée par quelques
pionniers pour leurs besoins internes : pouvoir paralléliser le stockage et le
traitement de données massives à très haute vélocité, mais à un moindre coût. Sont
venus ensuite les expérimentateurs avec des projets pilotes. Progressivement, leur
nombre va augmenter. Certains vont donner naissance à des projets de plus grande
envergure.

Dans quelques années, la Big data deviendra une innovation ordinaire, rattrapée à
son tour par une nouvelle innovation cherchant à l’améliorer voire à la remplacer. La
force de destruction créatrice (définie par Joseph Schumpeter en 1942 ,
redécouverte une première fois par Everett Rogers en 1962 , une seconde fois par
Norbert Alter en 1985 , une troisième fois par Geoffrey Moore en 1991 et une
quatrième fois par Clayton Christensen en 1995) continue son œuvre jusqu’à la
prochaine innovation…

10
II. FONCTIONNEMENT OPERATIONNEL ET MISE EN PLACE DU BIG
DATA

Fonctionnement opérationnel et étapes de la mise en place du Big


Data :

L’intérêt autour du Big data ne faiblit pas, comme le démontrent les nombreuses
publications que l’on peut trouver sur le sujet. Souvent abordé sous l’angle business
pour vanter les nouveaux apports métiers (optimisation de la relation client, des
ventes…), ou au contraire focalisé uniquement sur une nouvelle technologie, il n’est
pas facile de se forger une vision d’ensemble de l’architecture sous-jacente.
Démystifions ici cette complexité apparente, en reposant les principes de
fonctionnement des architectures Big data et les bonnes pratiques pour construire le
socle technologique optimal.

Le Big data en 5 grands modules d’architecture fonctionnelle

D’un point de vue fonctionnel, nous pouvons découper les architectures Big data en
cinq grands modules :

1. Collecte : ce module vise à récupérer les données à transmettre aux unités de


transformation et d’analyse. La collecte peut se faire par lot ou en temps réel sur des
données internes ou externes à l’entreprise.

2. Transformation : il s’agit ici d’extraire les informations utiles des données peu ou
non structurées. En les interprétant pour les rendre exploitables et cohérentes,
notamment via la constitution d’un catalogue de métadonnées. Cette étape n’est pas
obligatoire pour les données déjà structurées.

3. Analyse : alors que la « transformation » se focalise sur l’enrichissement des


données de manière unitaire, l’unité d’analyse va de son côté créer de nouvelles
informations par identification, corrélation, agrégation ou projection de l’ensemble
des données précédemment transformées. Tout comme pour la « collecte », ces
analyses peuvent être effectuées par lot ou en temps réel.

4. Restitution : l’objectif de ce module est de permettre la visualisation des analyses


et l’exploration des données.

5. Stockage : capable de stocker de très gros volumes de données structurées et


non structurées, ce module est généralement sous-découpé de la façon suivante :

o Lac de données permettant d’héberger les données brutes ;


o Entrepôt de données stockant les données issues de la transformation ;
o Cache d’analyse permettant d’accélérer les traitements en vue de la
restitution.

11
Les modules fonctionnels de l’architecture étant posés, quelle stratégie adopter pour
bâtir le socle sous-jacent ? Le Big data invite justement à l’adoption d’un triptyque
gagnant pour bien choisir les outils :

 Élasticité : opter pour des outils capables de maximiser l’utilisation des


ressources mises à disposition et les possibilités de scalabilité horizontale :
facilité d’ajout de nœud de stockage et de calcul. Il faudra aussi que ces outils
soient indépendants vis-à-vis des technologies de stockage (SAN,
NAS, DAS) ou de serveurs (x86, AIX, …).

 Polyvalence : choisir des outils permettant d’intégrer des sources de données


multiples. Les données peuvent être structurées (base de données, XML …),
semi structurées (e-mail), non structurées (vidéo, image), internes à
l’entreprise ou externes (sites web, réseaux sociaux, open data…).

 Réactivité : les outils à sélectionner devront pouvoir réduire au maximum le


time to market. Il est en effet important de pouvoir déployer de nouveaux
traitements et optimiser leur distribution entre les nœuds de calculs.

Travailler avec Big Data c’est un tout nouveau défi pour les entreprises. Ce n’est
pas seulement une question de mise en œuvre de la technologie, mais nécessite
une analyse approfondie de l’entreprise. La Manipulation de larges volumes de
données n'est pas une nouveauté pour les départements informatiques, mais
derrière le battage fait sur la question, les big data diffèrent vraiment du
datawarehouse, du datamining et de l'analyse décisionnelle qui les ont précédées.
L'informatique aujourd’hui se trouve à l'avant-garde de cette révolution. Les
responsables IT (Information technology) devraient commencer à préparer leur
entreprise pour cette transformation, pour faciliter le bon fonctionnement de ce genre
de projet, voici cinq actions à entreprendre pour en poser les fondations.

1 - Faire l'inventaire de ses données.

Toutes les entreprises, ou à peu près, ont accès à un flux régulier de données non
structurées, que celles-ci proviennent des médias sociaux, ou de capteurs surveillant
une usine, par exemple. Cela ne signifie pas qu'elles doivent toutes les sauvegarder
et les exploiter. Cet afflux soudain a suscité un besoin artificiel d'essayer de
comprendre toutes ces données, Ce souci a pu être provoqué par des consultants ou
fournisseurs soucieux de promouvoir leurs solutions Il y a une certaine pression de la
part de ceux qui commercialisent la technologie. Sans urgence, une première étape
pourrait consister à inventorier quelles données sont créées en interne et déterminer
quelles sont les sources externes, s'il y en a, qui pourraient apporter des informations
complémentaires sur l'activité de l'entreprise.
Une fois cet état des lieux engagé, les équipes informatiques devraient entreprendre
des projets très ciblés qui pourraient être utilisés pour montrer quels résultats on peut
obtenir, plutôt que d'opter pour des projets en mode big-bang. Mieux vaut éviter de

12
dépenser plusieurs millions de dollars pour déterminer si un projet vaut la peine
d'être mené ou pas.

2 - Donner la priorité aux métiers

Aligner l'IT avec les métiers est indispensable dans le cas d'un chantier aussi
important que peut l'être le traitement des big data. Les premières occasions de
traiter ces volumes se sont trouvées hors du périmètre de la IT. Par exemple dans
des départements marketing qui ont décidé de récolter les flux des médias sociaux
pour gagner en visibilité sur les besoins des clients et les tendances en matière
d'achats. Si c'est effectivement du côté business que l'on devrait identifier l'intérêt de
ces analyses, c'est à la IT que revient de prendre en charge la fédération et le
partage des données et de mettre en oeuvre la stratégie big data. Cela affirme que
ce n'est pas une démarche que la IT peut faire seule de son côté. « Il sera difficile
d'en faire une success story si le projet n'est pas aligné sur les objectifs business ».

3 - Réévaluer l'infrastructure
Dans la plupart des entreprises, les projets big data vont demander des
changements importants. D'une part sur les infrastructures serveurs et de stockage,
d'autre part sur la gestion des données. Les responsables informatiques doivent se
préparer à étendre leurs systèmes pour qu'ils supportent des bases en perpétuelle
expansion, recevant données structurées et non structurées. Cela signifie qu'il faut
trouver la meilleure approche pour rendre les systèmes à la fois extensibles et
évolutifs et qu'il faut élaborer une feuille de route pour intégrer tous les systèmes
disparates qui vont alimenter l'effort d'analyse des big data.

« Actuellement, les entreprises ont souvent des systèmes disparates et séparés pour
gérer la paie, les relations clients, le marketing », indique Anjul Bhambhri, vice-
président, responsable des produits big data chez IBM. Les CIO ont besoin de mettre
en place une stratégie pour les faire converger. « Il faut pouvoir poser des questions
qui traversent tous ces systèmes pour obtenir des réponses », précise le VP d'IBM.

4 - Etudier les technologies associées

Evidemment, le monde des big data apporte sa liste d'acronymes et de technologies.


Les outils en Open Source sont ceux qui retiennent le plus l'attention. On met au
crédit des Hadoop, MapReduce et NoSQL d'avoir aidé les géants du web que sont
Google et Facebook à naviguer à travers leurs réservoirs de big data. La plupart de
ces technologies, même si elles sont désormais disponibles sous une forme
commerciale, sont encore assez immatures et requièrent pour s'en servir des
compétences très spécifiques. Parmi les autres technologies importantes dans le
monde des big data figurent l'analytique in-database pour être au plus près des

13
données, les bases exploitant le stockage en colonnes et les appliances de
datawarehouse. Les équipes IT vont devoir comprendre ces nouveaux outils pour
pouvoir faire des choix avertis en matière de big data.

5 - Préparer ses équipes

Qu'elles aient besoin d'experts Hadoop ou de spécialistes des données (data


scientists), les départements IT manquent sévèrement des talents nécessaires pour
aller plus loin avec les big data. Les compétences en matière d'analytique sont peut-
être les plus cruciales et c'est là que se trouvent les manques les plus importants.

Pour quelques entreprises, particulièrement celles qui se trouvent dans les zones les
moins peuplées, trouver des compétences sera l'un des aspects les plus délicats des
projets de big data. Pour une structure de taille moyenne, ce sera un défi de
constituer une équipe et de faire en sorte qu'elle suive le rythme en constante
évolution de cet environnement.
Les directions des départements IT vont devoir elles-mêmes se transformer pour
exceller dans ce nouveau monde. Les managers IT du futur combineront des
compétences sur l'analyse de données et les processus métiers, estime Mark Beyer,
de Gartner. « Les CIO ont eu l'habitude de gérer des infrastructures à partir des
prescriptions des métiers, par opposition à un CIO qui serait capable d'identifier une
opportunité et par conséquent de pousser vers une utilisation innovante de
l'information », explique-t-il. C'est la transformation qui devra se produire.

Business Intelligence versus Big Data


Comparaison entre Big Data et Business Intelligence

Avant d’entrer dans le cœur du sujet de ce billet qui traite du choix entre l’utilisation
des technologies de Business Intelligence ou de Big data, commençons par un
rappel des fondamentaux de la Business Intelligence. La BI consiste en un ensemble
d’outils et de techniques permettant de collecter, de nettoyer et d’enrichir des
données structurées ou semi structurées pour les stocker dans différentes formes de
base de données de type SQL, multidimensionnel. Les données vont être gérées
dans des formats normalisés pour faciliter l’accès à l’information et les vitesses de
traitement. L’objectif de la BI est de produire des indicateurs de performance
permettant de comprendre le passé, d’analyser le présent afin d’extrapoler une vision
à long terme pour et définir les avantages compétitifs futurs de l’entreprise. La BI est
utilisée par un grand nombre d’utilisateurs internes ou externes pour supporter les
activités opérationnelles de l’entreprise jusqu’au suivi stratégique.

Essayons de mieux comprendre le Big Data autour de la définition traditionnelle des


4V en prenant un exemple. Une base de données clients contient les informations

14
suivantes : nom, prénom, genre, âge, métier, statut, etc. L’ensemble de ces
informations est stocké dans un entrepôt de données traditionnel. Si l’on applique la
définition des 4V pour décider si cette application doit migrer vers une infrastructure
de Big Data, la réponse serait négative. Le volume de données n’est plus un
problème en soi, on peut aujourd’hui parler de large Data Warehouse. La variété des
sources est prise en compte avec les nouvelles technologies et un coût faible
d’intégration de sources supplémentaires. La vélocité est gérée par les bus de
données applicatifs permettant une augmentation du volume de données par unité
de temps. La véracité de la donnée, enfin, est un théorème immuable dans l’analyse
de données quelle que soit l’infrastructure.

Deux méthodologies d’analyse différentes

Explorons davantage et plus en profondeur la donnée en introduisant de nouvelles


dimensions d’analyse : la détection d’événements, la chronologie des événements
dans la collecte des informations, le laps de temps entre les événements ou encore
les situations ou les contextes pouvant qualifier les événements intervenus.

La démonstration peut se faire par l’exemple :

 1er cas : un consommateur regarde une publicité, le lendemain, il visite le site


web, deux jours plus tard il appelle un conseiller et le jour suivant il réalise un
achat.
 2e cas : un consommateur achète un produit, le même jour il visite le site web,
puis trois mois plus tard il appelle un conseiller et le mois suivant il regarde la
publicité.

Ces deux cas nous montrent la nécessité de comprendre les événements ainsi que
la séquence. Même si dans ces deux exemples le client a acheté le même produit,
les analyses de l’expérience client et de son parcours sont radicalement différentes.

Prenons maintenant le cas d’un client qui s’adresse à un conseiller d’un service
après-vente.

 1er cas : il visite le site web deux fois dans la journée et en fin de journée il
appelle un conseiller.
 2e cas : Il visite deux fois le site web dans la journée et trouve la réponse à sa
question sans entrer en contact.

L’interprétation des informations sera différente même si dans les deux cas le client a
obtenu la bonne réponse à sa question.

Dans ces deux exemples on peut facilement mesurer la différence en Business


Intelligence et Big Data. Dans le premier exemple, le marketing met en place des
séquences précises pour capturer et enfermer le client dans un parcours défini
suivant des règles métiers. Le client volatile, spontané, hybride et indécis casse en
permanence les règles, les parcours préétablis et les processus marketing entrant et
sortant. Pour comprendre son comportement, il va falloir déstructurer l’information et
la traiter en masse avec une approche orientée question. Les technologies du Big
Data permettent de stocker les mêmes données, mais dans des contextes différents,

15
en appliquant des traitements distincts et des séries d’algorithmes différenciées et
ceci pour traiter plusieurs problématiques simultanément (NoSql et autres
technologies adaptées, graphes, etc.). On peut également lancer des opérations
d’apprentissage sur les données sans avoir d’idées préconçues ainsi que des
phases d’observation pour détecter les fameux signaux faibles (information partielle
ou fragmentaire fournit par l’environnement). L’ensemble de l’information, les degrés
de personnalisation ou les types de recommandation collectés devront pouvoir être
reproduits pour être modélisés, donc industrialisés, à grande échelle. La
connaissance obtenue inférera la stratégie, les organisations, les hommes et les
processus de l’entreprise.

On en conclut, qu’il n’y a pas de lien direct à établir entre BI et Big Data. Les
techniques d’analyse sont radicalement différentes, pratiquées avec des savoir-faire
et des technologies nouvelles. Le nouveau paradigme est en rupture avec les modes
de pensée en cours et tend à révolutionner l’approche même de l’analyse de
données. La question se situe bien au-delà du débat technologique autour des bases
de données SQL, no SQL, en colonne, en mémoire et toute autre variante. L’intérêt
du Big Data réside moins dans les sujets traités que dans la façon d’appréhender et
de résoudre les problèmes dans des domaines transverses (marketing, logistique,
gestion du risque…) ou dans des domaines spécialisés (santé, énergie,
distribution…). C’est le cœur du challenge du Big Data : connaître l’activité humaine,
comprendre son contexte, établir les relations entre les données d’activité pour
fournir, à un instant donné, un service en temps réel individualisé et personnalisé.

Big Data : évolution des cas d’usage

Le Big Data est un phénomène émergent. Pourtant, des cas d’usage courants sont
déjà connus et apportent dès à présent une valeur significative. En voici quelques
exemples :

Moteur de recommandation

Depuis des années, des entreprises telles qu’Amazon, Facebook et Google utilisent
des moteurs de recommandation pour filtrer et suggérer aux utilisateurs des produits,
personnes et annonces, en fonction de l’analyse de leurs profils et des
renseignements sur leur comportement en ligne. Les problèmes liés à l’analyse de
ces volumes importants d’informations ont été parmi les premiers abordés par le Big
Data et leur résolution a contribué à développer la technologie telle que nous la
connaissons à l’heure actuelle.

Analyse de campagnes marketing

Un marketeur identifiera et touchera d’autant plus de cibles “granulaires” qu’il


disposera d’informations. Le Big Data est utilisé pour analyser d’énormes quantités
de données qui échappent aux solutions relationnelles classiques, de telle sorte que
les spécialistes dans le domaine du marketing peuvent maintenant mieux repérer un

16
public cible et associer les produits et services appropriés à un individu précis.
Grâce au Big Data, ils étudient d’importants volumes d’informations à partir de
nouvelles sources, comme le parcours de navigation ou les enregistrements des
détails des appels, ce qui leur permet de mieux comprendre les tendances et les
comportements d’achat des consommateurs.

Analyse de la fidélisation et de la perte de clientèle

Une augmentation du nombre de produits par client équivaut souvent à une


diminution de la perte de clientèle, et de nombreuses sociétés entreprennent
d’importants efforts pour améliorer les techniques de vente croisée et de montée en
gamme. Toutefois, l’étude de la clientèle et des produits à travers les secteurs
d’activité s’avère souvent difficile, puisque des formats hétérogènes de données et
des problématiques de gouvernance limitent ces efforts. Certaines entreprises ont la
possibilité de charger ces données dans un cluster Hadoop, afin d’effectuer des
analyses à grande échelle pour identifier les tendances. Le résultat montre les clients
susceptibles de partir à la concurrence ou, encore mieux, ceux qui vont
probablement approfondir leur relation commerciale avec l’entreprise. Des mesures
peuvent alors être adoptées pour reconquérir ou encourager ces clients selon le cas.

Analyse des graphes sociaux

Chaque réseau social ou communauté compte des utilisateurs ordinaires et des


super- utilisateurs, et reconnaître ces derniers est une tâche difficile. Avec le Big
Data, les données issues des activités des réseaux sociaux sont explorées pour
indiquer les membres exerçant une influence majeure sur le groupe. Ceci permet aux
entreprises d’identifier les clients « les plus significatifs », qui ne sont pas forcément
ceux utilisant l’offre de produits la plus vaste ou bénéficiant du budget conséquent,
contrairement à la définition classique répandue dans le cadre de l’analyse
décisionnelle.

Analyse des marchés des capitaux

Que nous recherchions de grands indicateurs économiques, ou des indicateurs de


marché spécifiques ou bien encore des avis sur une entreprise donnée et ses
actions, la richesse des informations à analyser est impressionnante tant en
provenance des sources classiques que des nouveaux réseaux. Si l’analyse par
mots clé de base et l’extraction d’entités sont utilisées depuis plusieurs années,
l’association d’informations classiques et de sources inédites telles que Twitter et
d’autres médias sociaux permettent d’accéder à un aperçu détaillé de l’opinion
publique, pratiquement en temps réel. Aujourd’hui, la plupart des institutions
financières se servent, à différents degrés, de l’analyse des sentiments pour mesurer
la perception du public sur leur entreprise, sur le marché, ou sur l’économie en
général.

Analyse prédictive

17
Afin de prévoir les changements économiques, les experts dans le domaine des
marchés des capitaux confrontent d’un côté les algorithmes de corrélation avancés
et calculs des probabilités, et, de l’autre, les données historiques et actuelles. Le
volume important des archives d’informations sur les marchés ainsi que la vitesse
exigée pour l’évaluation des nouveaux renseignements (par exemple : valorisations
complexes d’instruments dérivés) font de l’analyse prédictive un problème majeur
que le Big Data contribue à résoudre. En effet, grâce à la capacité à effectuer ce type
de calculs plus rapidement, et avec du matériel informatique courant, le Big Data
remplace de manière fiable l’approche relativement lente et coûteuse fondée sur les
systèmes traditionnels.

Gestion des risques

Les entreprises dont la technologie se veut avancée et déterminée tentent de


minimiser les menaces au moyen d’une gestion continue des risques et d’une
analyse à large spectre des facteurs de risque, en croisant de vastes catégories de
données. Par ailleurs, une demande de plus en plus pressante oblige à accélérer
l’analyse des informations, malgré leur volume toujours croissant. Les technologies
de Big Data s’imposent dans la résolution de ce problème : en effet, les calculs
peuvent être effectués tout en accédant aux données. Qu’il s’agisse d’analyse
croisée ou d’intégration d’informations sur les risques et les tendances financières,
afin de rajuster les rendements et les bilans, il est nécessaire de fusionner, de
permettre l’accès et de traiter à tout moment une quantité grandissante de données
provenant des différents services autonomes de l’entreprise.

«Rogue trading »

Une analyse approfondie reliant les données comptables aux systèmes de repérage
et de gestion des commandes peut fournir des informations stratégiques précieuses
qui ne seraient pas disponibles avec les outils classiques. Afin de les identifier, une
masse importante de données doit être traitée presque en temps réel à partir de
sources multiples et hétérogènes. Cette fonction permettant de puissants calculs
peut maintenant être effectuée par le biais des technologies Big Data.

Détection des fraudes

Mettre en rapport des données à partir de sources multiples et non reliées augmente
la possibilité d’identifier des activités frauduleuses. Si, dans le cadre du Big Data, l’on
relie par exemple des mouvements bancaires effectués en ligne, aux distributeurs
automatiques, via smartphone, par carte de paiement, à l’analyse du comportement
web retracé sur le site de la banque où ailleurs, la détection des fraudes en est
améliorée.

Services bancaires de détail

Dans le domaine des services bancaires de détail, la capacité de déterminer avec


précision le niveau de risque sur le profil d’un individu ou sur un prêt joue un rôle

18
primordial dans la décision d’attribuer (ou de refuser) à un client certaines
prestations. Comprendre correctement la situation protège non seulement la banque,
mais satisfait aussi le client. Un accès à des informations exhaustives sur la clientèle
permet aux banques de bénéficier de garanties et de visibilité afin de mieux cibler les
offres de services. Il est aussi possible de prévoir les événements significatifs dans la
vie du client, tel un mariage, la naissance d’un enfant, l’achat d’une maison, ce qui
est un atout pour appuyer les activités de vente croisée et de montée en gamme.

Surveillance du réseau

Tous les types de réseaux, qu’il s’agisse de transports, de communications ou de


protection policière, peuvent bénéficier d’une meilleure analyse, activité dans laquelle
interviennent les technologies Big Data. Considérons par exemple le réseau local
d’un bureau : grâce au Big Data, des volumes considérables d’informations sont
acheminés depuis des serveurs, des périphériques et du matériel informatique
divers. Les administrateurs peuvent ainsi surveiller l’activité du réseau et détecter
des congestions et bien d’autres problèmes avant qu’ils n’aient un impact négatif sur
la productivité.

Recherche et développement

Les entreprises qui disposent de services de recherche et développement


importants, comme les établissements pharmaceutiques, se servent des
technologies Big Data pour examiner minutieusement d’énormes quantités
d’informations texte et de données historiques afin d’accompagner la conception de
nouveaux produits.

III. CARACTERISTIQUES DU BIG DATA

Après le très en vogue "cloud computing", un nouveau concept émerge dans le


secteur informatique, celui du "Big data". A l'origine du concept de "Big data" se
trouve l'explosion du volume de données informatiques, conséquence de la flambée
de l'usage d'Internet, au travers des réseaux sociaux, des appareils mobiles, des
objets connectés, etc. tout en sachant que les innovations technologiques sont nées
du développement de canaux d’interactions omniprésents tels que Smartphones,
mobiles, web, e-mails, réseaux sociaux et tablettes aujourd’hui, téléviseurs, voitures,
maisons et tous les objets de la vie quotidienne demain. En 2014, ce sont 5 Zeta
octets de données qui peuvent être exploitées, et le rythme de croissance annuel
moyen est de 40 % avec une prévision de 43 Zeta octets en 2020. C’est le constat à
l’origine du concept de Big Data.

Ce volume vertigineux de données ne peut plus être collecté, stocké, géré et exploité
par les solutions informatiques traditionnelles combinant infrastructures matérielles et
bases de données relationnelles. En vue de trouver les solutions technologiques
adéquates, une première phase de clarification conceptuelle du Big Data s’est

19
imposée. Ainsi, des cabinets d’étude et d’analyse ont proposé la règle des 3V :
Volume, Vélocité, Variété.

En fait, les Big Data désignent des méthodes et des technologies (pas seulement
des outils) pour des environnements évolutifs (augmentation du volume de données,
augmentation du nombre d'utilisateurs, augmentation de la complexité des analyses,
disponibilité rapide des données) pour l'intégration, le stockage et l'analyse des
données multi-structurées (structurées, semi structurées et non structurées).

Donc, aucune entreprise ne souhaite polluer sa base de données transactionnelle


avec le Big Data. Cependant la demande d’information est telle qu’elles doivent
pouvoir accéder rapidement aux données et mener en temps réel les analyses qui
leur offriront une meilleure chance de réagir à l’évolution des tendances.

Il est donc important de comprendre les 3V du Big Data – Volume, Vitesse et Variété.

o Volume :

Le volume décrit la quantité de données générées par des entreprises ou des


personnes. Le Big Data est généralement associé à cette caractéristique. Les
entreprises, tous secteurs d’activité confondus, devront trouver des moyens pour
gérer le volume de données en constante augmentation qui est créé
quotidiennement.

Dans les systèmes d’information en place dans les entreprises, les volumes de
données traités se mesurent en téraoctets. Le challenge immédiat de l’IT traditionnel
est d’être en capacité de traiter des Péta octets et bientôt des Exa octets puis des
Zeta octets. S’ensuivent une longue liste de questions auxquelles les spécialistes
doivent apporter une réponse à plus ou moins long terme : quels sont les coûts ?
Quels sont les outils de stockage et de traitement en temps réel ? Quelles sont les
méthodes à adopter pour analyser l’information ? Quels sont les moyens pour
archiver ? Les technologies émergentes proposent quelques débuts de réponse.

20
o Vitesse :

La vitesse décrit la fréquence à laquelle les données sont générées, capturées et


partagées. Du fait des évolutions technologiques récentes, les consommateurs mais
aussi les entreprises génèrent plus de données dans des temps beaucoup plus
courts. À ce niveau de vitesse, les entreprises ne peuvent capitaliser sur ces
données que si elles sont collectées et partagées en temps réel. C’est précisément à
ce stade que de nombreux systèmes d’analyse, de CRM, de personnalisation, de
point de vente ou autres, échouent. Ils peuvent seulement traiter les données par lots
toutes les quelques heures, dans le meilleur des cas. Or, ces données n’ont alors
déjà plus aucune valeur puisque le cycle de génération de nouvelles données a déjà
commencé.

o Variété :

La prolifération de types de données provenant de sources comme les médias


sociaux, les interactions Machine to Machine et les terminaux mobiles, crée une très
grande diversité au-delà des données transactionnelles traditionnelles. Les données
ne s’inscrivent plus dans des structures nettes, faciles à consommer. Les nouveaux
types de données incluent contenus, données géo spatiales, points de données
matériels, données de géolocalisation, données de connexion, données générées
par des machines, données de mesures, données mobiles, points de données
physiques, processus, données issues de recherches, données de confiance,
données de flux, données issues des médias sociaux, données texte et données
issues du Web.

Texte, images, photos, vidéos, quel que soit le format de l’information, les données,
structurées ou non structurées, requièrent un nouveau savoir-faire pour être
assimilées puis analysées. L’exploitation et le traitement de l’information aussi
variée, tant par la forme que par le contenu, sont difficilement réalisables en dehors
du support initial. En conséquence, une approche d’indexation, de recherche
sémantique et de navigation intra- et inter- applications s’impose pour l’exploitation
de ces nouveaux médias, sans oublier la nécessité de modélisation de phénomènes
complexes. C’est précisément pourquoi la gouvernance des données, leur
protection, la gestion de leur qualité constituent les nouveaux enjeux des systèmes
d’information, puisque l’information ne provient pas nécessairement de sources
internes et contrôlées et qu’elle ne correspond pas à priori et nécessairement aux
caractéristiques attendues en termes de format, de qualité et d’intégrité.

Pourquoi est-il important de comprendre tout cela ?

Parce que le Big Data aide à obtenir une meilleure représentation de l’interaction des
clients avec l’entreprise. Il permet une meilleure compréhension de ce que les clients
aimeraient réaliser à chaque point de contact. Il minimise ainsi le risque de perdre

21
ces clients lors du passage d’un point de contact vers un autre et garantit la
pertinence de l’information qui leur est délivrée. Ainsi, pour améliorer à la fois la
qualité de service, aspect clé pour les clients, et le taux de transformation de ces
clients, il est important pour l’entreprise de ne pas perdre de vue les 3 V du Big Data.

IV. ENJEUX ET APPORTS

Enjeux :
Le Big Data apparaît comme le challenge technologique des années 2010-2020.
Dépassant les domaines techniques et informatiques, le Big Data suscite un vif
intérêt auprès des politiciens, des scientifiques et des entreprises. Les enjeux du Big
Data touchent plusieurs secteurs d'activités.

Le Big Data répond à plusieurs enjeux pour l'entreprise :


 Améliorer l'expérience client,
 Mieux comprendre les comportements des prospects et des clients,
 Anticiper les besoins et adapter les campagnes marketing.

Les enjeux liés à l’utilisation des données dites Big data sont multiples et plus
aucune entreprise en prise directe avec Internet ne peut les ignorer. Ils se situent à 4
niveaux : technique, métier stratégique et économique.

Les enjeux techniques de ces nouvelles sources de données Big Data s'articulent
autour de l'intégration, le stockage, l'analyse, l'archivage, l'organisation et la
protection des données. Ils répondent à la règle dite des 3V, à savoir :

 La gestion des gros volumes de données,


 La prise en compte de la variété des types de données,
 La maitrise de la vitesse à laquelle elles arrivent.

On ajoute souvent un 4ème V qu’est la valeur obtenue à pouvoir exploiter volume,


vitesse et variété de ces données. Il existe beaucoup d’autres variantes telles que :

(volume+ variété + vitesse)* visualisation = valeur (grâce aux outils de data


visualisation)

Parmi les autres « V » à mentionner, on trouve : véracité (s’assurer que ces données
sont de qualité), vitalité (mesurer leur taux de mise à jour), visibilité (vérifier qu’on est
autorisé à les voir) etc.

Concernant les enjeux métier des Big Data, on peut citer par exemple :

22
 Au niveau opérationnel : analyser plus vite de nouvelles sources de données
clients,
 Au niveau tactique : analyser les attentes des clients et délivrer les produits
adaptés, offrir de nouvelles possibilités de segmentation et ciblage marketing,
 Au niveau stratégique : accroitre la fidélité client ou gagner de nouvelles parts de
marché.

Les enjeux stratégiques d’entreprise quant à eux, ils couvrent la réduction des
coûts, l’optimisation de la productivité, la conformité aux contraintes réglementaires,
l’augmentation de la marge, le pilotage de la performance, la maitrise des risques,
l’innovation, enfin l’automatisation de certaines décisions, voire la génération de
plans d’action.

Enfin les enjeux économiques :

Les entreprises collectent de plus en plus d'information en relation avec leurs


activités (production, stockage, logistique, ventes, clients, fournisseurs, partenaires,
etc), toutes ces informations peuvent être stockées et exploitées pour stimuler leur
croissance. Les Big Data permettent :

 D'améliorer les stratégies marketing et commerciale


 D'améliorer et entretenir la relation client
 De fidéliser la clientèle
 De gagner de nouvelles parts de marché
 De réduire les coûts logistiques
 De favoriser la veille concurrentielle

Le client est un acteur majeur dans ce contexte. Jusqu'à présent, la vente consistait
à se demander « J'ai un produit, à qui vais-je pouvoir le vendre? ». A l'ère du Big
Data, nous devons changer le paradigme pour dire « J'ai un client, de quoi a-t-il
besoin aujourd'hui ? ». En connaissant mieux son public, à travers ses achats, ses
activités sur Internet, son environnement, les commerçants peuvent améliorer
l'expérience-client, exploiter la recommandation, imaginer le marketing prédictif (le
marketing prédictif regroupe les techniques de traitement et de modélisation des
comportements clients qui permettent d'anticiper leurs actions futures à partir du
comportement présent).

L’enjeu juridique est aussi présent, dans un contexte où les utilisateurs sont souvent
des « produits », l’enjeu juridique des Big Data reste la protection de la vie privée.

Apports :

Le partage croissant d'informations liées aux habitudes, aux préférences ou aux


attentes des consommateurs a donné naissance au Big Data. Cette masse de
données peut être mise à profit par l'entreprise pour mieux répondre à ses clients.
Elle peut présenter un réel avantage concurrentiel.

Surtout utilisé par les professionnels du marketing, le Big Data attire de plus en plus
les entreprises. Elles l'intègrent dans leurs stratégies BtoC ou BtoB.

23
L'utilisation des Big Data pourrait impacter fortement le monde de l'entreprise et ce
de façon méliorative, ainsi les entreprises pourront :

o Améliorer la prise de décision


o Réduire les coûts d'infrastructures informatiques via l'utilisation des serveurs
standards et des logiciels open source
o Développer la réactivité et l'interactivité à l'égard des clients
o Améliorer les performances opérationnelles

Tout ceci orientera les entreprises vers une économie centrée sur la donnée.

Dans une même entreprise, plusieurs départements peuvent être concernés par la
mise en place et l'utilisation du Big Data : informatique, commercial, marketing... Les
services marketing font le plus appel au Big Data. Ils sont considérés comme
précurseurs dans la mise en place de nouvelles stratégies.

Les points clés qui poussent les entreprises à intégrer un système Big Data sont :

o De meilleures possibilités de traitement des données ;


o Un traitement de grands volumes de données ;
o Des entrées multiples de données dans l’entreprise ;
o Une vision globale des données internes et externes sous forme d’un tableau
de bord.

La mise en place de nouveaux processus liés au Big Data peut aussi permettre
l'amélioration de la chaîne logistique, des mécanismes de décision et un avantage
concurrentiel significatif.

Des avantages pour le marketing de l'entreprise sont aussi présents :

 Améliorer l'efficacité des campagnes publicitaires, qu'elles soient en ligne ou non,


 Affiner le ciblage des prospects et des clients,
 Analyser le comportement des prospects et des clients à 360° : achats en
magasin et en ligne, habitudes de navigation sur internet, préférences
renseignées sur les réseaux sociaux...

V. LIMITES DU BIG DATA

La « révolution Big Data » s’annonce comme étant le remède miracle à tous nos
maux. Mais si son potentiel d’exploitation est immense, il faut savoir en reconnaître
les limites.

24
Une Obsession dangereuse :

Nombreuses sont les entreprises qui utilisent des analyses statistiques pour
déterminer leur stratégie. Le Big Data, en ouvrant l’accès à toujours plus de
données, se voudrait donc être un formidable outil décisionnel. Mais s’il offre des
perspectives pour le moins séduisantes, il ne saurait se substituer aux outils de
gestion classiques. Explorer de gros volumes de données pour explorer des
tendances communes c’est bien, mais encore faut-il que ces données soient
fiables lorsqu’il s’agit de traiter les cas individuels, de faire de la gestion… Or la
multitude d’outils nécessaire à leur exploitation laisse présager des confusions sur
les résultats. Et lorsqu’on sait que la qualité des données est un enjeu de taille pour
nombre d’entreprises, notamment dans les secteurs très réglementés comme celui
de l’assurance, on voit pointer les limites des systèmes Big Data.

Un concept pas toujours pertinent :

En effet, pour la plupart des petites et moyennes structures, le nombre de données


brassées quotidiennement est bien loin des quantités gigantesques analysées par
les grands groupes. Le Big Data serait donc jugé « surdimensionné » face aux
enjeux à relever par les entreprises.

Les Limites de statistiques :


Le Big Data se fonde entièrement sur les statistiques. Il s’agit de récolter et
d’analyser un maximum de données afin d’en dégager des tendances et donc des
objectifs pour l’entreprise.
Cependant, il serait vain de croire qu’il est la clef de l’analyse prédictive. De ce point
de vue, les statistiques se heurtent à l’irrationalité des comportements humains, et il
ne faut pas confondre lien de corrélation avec lien de causalité.
Pour toutes ces raisons, prenons garde à ne pas faire l’apologie du Big Data à tout
prix. Autrement dit, l’introduction de celui-ci dans nos modèles ne doit pas nous
détourner d’un autre objectif primordial : assurer une gestion efficace et fiable de nos
données.
Limites posées par la nature des données :

Si le terrain de jeu du Big Data est loin d’être restreint, il n’est pas sans limites. Elles
tiennent, en premier lieu, à la nature des données et aux traitements envisagés, et
quand il s’agit de données personnelles, la vigilance est nécessaire. En Europe, le
traitement de données à caractère personnel est régi par les dispositions de la
Directive 95/46/CE du Parlement européen et du Conseil du 24 octobre 1995 relative
à la protection des personnes physiques à l'égard du traitement des données à
caractère personnel et à la libre circulation de ces données (transposée dans tous
les états membres). Remarquons que le futur règlement européen s’accompagne de
nouvelles mesures de protection des droits des personnes.

25
Une faille minuscule peut menacer des quantités de données considérables , si les
utilisateurs perdent confiance dans l'utilisation de leurs informations, c'est donc tout
l'édifice du big data qui risque de s'écrouler. Pour éviter cela, la Commission
européenne a présenté, au début 2012, un règlement qui vise à les protéger
davantage. Ce texte, qui devrait être voté en 2014 pour une application en 2016,
obligera les entreprises à demander à l'utilisateur son consentement explicite avant
de collecter ses données personnelles. Il instaure également le droit à l'oubli.
De ce fait, c’est une véritable stratégie juridique de mise en œuvre du Big Data que
les entreprises devront adopter pour conjuguer avec justesse les enjeux
économiques et les libertés individuelles. Mais les limites ne s’arrêtent pas là.
Remarquons que le futur règlement européen s’accompagne de nouvelles mesures
de protection des droits des personnes.

Les limites liées à l’utilisation des données issues de collectes d’identités

numériques et au Big Data de manière générale :

Biais de sélection et anticipations rationnelles ; Les individus peuvent se présenter


sous de fausses identités ou des identités partielles ou « espérées » ou s’identifier
au minimum pour rester le plus anonyme possible. De plus, ils peuvent contribuer
beaucoup ou peu à des projets collectifs (open source, wikipedia, forums et autre
communautés de savoir). Dès lors, certaines caractéristiques et opinions seront sur
représentées, créant ainsi un biais de sélection dans l’analyse statistique de ces
données. Le biais de sélection peut également provenir d’un marché de la réputation
où des agents proposent de bien noter contre rémunération. On peut également
acheter des « followers » sur Twitter ou des « like » sur Facebook. De manière plus
générale, les modèles de prévision et d’anticipation du comportement des individus
ne sont opérationnels que si ces derniers sont relativement passifs. Au contraire,
lorsque les individus anticipent eux-mêmes les règles qu’on leur applique, ils peuvent
manipuler leurs données pour rendre l’algorithme de prévision inefficace. Cette
critique des modèles de prévision basée sur les anticipations rationnelles dans un
contexte macro-économique a été énoncée par le prix Nobel Robert Lucas. Défiance
Dans un contexte de défiance envers les réseaux socio-numériques et les
entreprises qui les ciblent, les internautes auront recours à des outils de plus en plus
sophistiqués pour garantir le respect de leurs données personnelles.

VI. LES RISQUES

Les grands risques sont liés à la donnée….

Bien entendu, les risques classiquement liés aux données sont toujours présents et
même amplifiés dans le cas du Big Data : la perte ou le vol de données à cause
d’une mauvaise maîtrise des nouvelles solutions, la dépendance à des fournisseurs,

26
des applications ou des technologies jeunes et mouvantes, l’interception de
données, ou encore la perte des infrastructures informatiques.

- Sources de données : Multiplication et appartenance des sources de


données.
- Régularisation de la donnée : Données à caractère personnel mais pas
uniquement .
- Accès et cycle de vie de la donnée : Droit d’accès et cycle de vie de la
donnée

Les risques du Big Data se positionnent sur les étapes du cycle de vie de la
donnée :

Mais de nouveaux types de risques apparaissent également :

 Liés à l’acquisition de données : si celles-ci sont de mauvaises qualité ou


malicieuses, le traitement pourrait être loin des résultats escomptés, voire
porter atteinte au système d’information de l’entreprise. Des questions se
posent également quant à la propriété intellectuelle de ces données,
notamment sur le droit qu’a une entreprise de les utiliser ou non.
 Liés aux réglementations : il s’agit du risque de réaliser des traitements non-
conformes au regard de la loi. En particulier, il est très facile de
« désanonymiser » des données initialement anonymes, en croisant diverses
sources. Ce type « d’inférence » doit faire l’objet d’une attention toute
particulière. Par ailleurs, un système Big Data rend plus probable la réalisation
d’un traitement illégal, sans même l’avoir initialement recherché.
 Liés à la vie de la donnée : les systèmes de Big Data fonctionnent largement
de manière répartie, avec des données décentralisées et dupliquées.
Beaucoup de fournisseurs se basent d’ailleurs sur des systèmes de Cloud

27
Computing : autant d’éléments qui peuvent rendre la donnée plus difficile à
identifier et à supprimer efficacement

VII. CONTRES MESURES

Les contre-mesures sont donc à mettre en œuvre tout au long de son cycle de
vie.

Là aussi, les mesures de protection classiques sont toujours valables dans le cas
du Big Data. Cependant, de nouvelles mesures complémentaires doivent aussi
être envisagées.

Figure1 : Contremesures de sécurité spécifiques au Big Data

Un point essentiel ne doit pas être négligé dans leur mise en œuvre : certaines sont
du ressort de la DSI, d’autres doivent être prises en compte par les métiers
demandeurs, et plusieurs questions nécessiteront l’intervention de juristes
spécialistes du sujet.

Comment se préparer à l’arrivée des Mégadonnées ?

Les fonctions de sécurité actuelles ne répondent qu’à une partie de la problématique.


Il est nécessaire aujourd’hui de disposer de protections spécifiques au Big Data, sur
toute la chaîne de traitement de la donnée : contrôle d’accès, anonymisation,
traçabilité, transfert sécurisé…

Malheureusement, la maturité des solutions de Big Data est très variable ; dans la
plupart des cas, aucun moyen de protection n’est offert nativement. Les produits les

28
plus avancés intègrent des options intéressantes, mais rarement adaptées à l’échelle
d’une grande entreprise.

Des nombreux éditeurs innovants proposent aujourd’hui des solutions permettant


d’ajouter des fonctions de sécurité aux principales architectures de Big Data, que l’on
peut classer de trois grandes catégories :

 La gestion des plateformes : les solutions aujourd’hui centralisées vont aller


vers une décentralisation d’une part du fait de la nature distribuée des
systèmes Big Data, d’autre part à travers l’utilisation intensive du Cloud
Computing. Cette décentralisation nécessitera pourtant une harmonisation en
termes de sécurité.
 La gestion des identités et des accès : actuellement plutôt basée sur la
notion de « rôles » des utilisateurs RBAC ( Role Based Access Control), celle-
ci va progressivement s’appuyer sur les « attributs » de la donnée ABAC
(Attribute Based Access Control) afin de déterminer qui peut accéder à quoi.

 La protection de la donnée : le chiffrement intégral, très répandu aujourd’hui,


permet de protéger indifféremment les données d’un grand nombre
d’utilisateurs (par exemple, toute une base de données). Pour protéger des
niveaux de sensibilité différents et appartenant à différents propriétaires, il va
être nécessaire d’opter pour un chiffrement très ciblé (par exemple, une
cellule de la base Big Data).
 Lutter contre la fuite des données : la Data Leak Prevention : c’est un
ensemble de techniques de protection contre la fuite d’informations en
informatique.
La DLP permet d’identifier les données sensibles de l’entreprise et les
protéger dynamiquement contre les risques de fuite, d’appliquer des contrôles
et d’adopter des mécanismes de protection appropriés en fonction des
contraintes réglementaires et non réglementaires (protection de la propriété
intellectuelle, protection des informations sur la stratégie…) de l’entreprise.

Explorer les possibilités du Big Data pour la sécurité :

Le Big Data est de plus en plus utilisé pour fournir des systèmes de sécurité
pertinents, qu’il peut être intéressant d’évaluer. On peut citer l’exemple des solutions
d’antivirus ou de SIEM permettant de corréler ses événements avec ceux d’autres
entreprises afin de détecter une attaque avec plus de fiabilité. A terme, nous verrons
probablement apparaître des systèmes de sécurité « statistiques », permettant par
exemple de décider en temps réel d’ouvrir ou non un chemin réseau, en se basant
sur un nombre immense de critères : position de l’expéditeur dans l’entreprise, nom
et entreprise du destinataire, réputation de ceux-ci, contenu du flux, comportement
des autres flux, attaques connues, date et heure..

29
VIII. ETUDE DE CAS

Historique

- Hassan BAHEJ, directeur général d’IBM Maroc


- Présentée depuis plus de 80 ans au Maroc, IBM poursuit sa tradition
d'innovation au service de ses clients. En effet, elle est présente au Maroc depuis
1932, à travers notre premier client, la " Direction de la Statistique".
- Aujourd’hui, IBM consolide encore plus sa position, à travers ses activités
récentes au Maroc. L'ouverture du premier Centre d'Innovation d'IBM en Afrique à
Casablanca en 2008, montre le dévouement d’IBM à la poursuite de son ambition de
développement de technologies avancées.
- En Septembre 2012, IBM a inauguré un bureau à Rabat, doublant ainsi sa
présence dans le Royaume, avec pour objectif le renforcement de ses capacités à
fournir nos solutions et services à une base de clients et de partenaires en pleine
expansion. Cette même année, le prix Smarter Cities Challenge gagné par la ville de
Rabat pour l'amélioration des transports urbains, a permis de formuler un ensemble
de préconisations et de recommandations pour la mise en œuvre de solutions vers
un modèle intégré, plus efficace et intelligent pour la région de Rabat, Salé et
Temara.
- Ce programme vise à contribuer, au moyen de l’innovation technologique, à
résoudre des enjeux majeurs de développement des villes : les transports, l'énergie,
la gestion de l’eau, l'éducation, les services sociaux, la sécurité.
- En Juillet 2013, IBM a annoncé la création d’un Global Delivery Center à
Casablanca. Ce centre permettra la création de près de 400 emplois sur 3 ans et a
pour mission de fournir un ensemble de services technologiques innovants pour les

30
clients d’IBM en Afrique francophone. Le nouveau Global Delivery Center Maroc
aura pour mission de fournir aux clients de la région des compétences IT locales
pour répondre à leurs besoins spécifiques en termes de développement et de
gestion d'applications ainsi que des services d'intégration de systèmes. Autant de
services qui aideront les clients à s’appuyer sur les nouvelles tendances
technologiques telles que le social business, le mobile ou encore le commerce
intelligent, pour développer leurs affaires.

- En 2014, IBM Maroc vient d'annoncer un nouvel Innovation Centre à


Casablanca, qui sera accompagné d’un IBM Client Centre, situé dans les mêmes
locaux. Les deux centres auront pour objectif d'offrir un accès aux technologies
d'IBM, en particulier celles de Cloud, d’analytiques et de mobilité, l’optimisation du
trafic numérique et la gestion de l’énergie, identifiées comme étant essentielles pour
répondre aux challenges des économies locales. IBM entend également se
rapprocher des investisseurs et des incubateurs locaux pour identifier et
accompagner les entrepreneurs et start-up en Afrique francophone, à travers l'accès
de celles-ci aux conseils, équipements et logiciels d'IBM. Enfin, ce projet soutiendra
les programmes et environnements éducatifs des universités marocaines et leur
offrira un accès aux technologies et matériels d'IBM.

Rôle du Big Data dans les fraudes et les menaces

 Faites le diagnostic de santé de vos actifs : Une panne de vos actifs se traduit
par une hausse des coûts. Qu'il s'agisse d’équipements de fabrication, d'actifs sur le
terrain ou de produits, vous devez réduire au minimum les temps d’indisponibilité et
les pannes. La prévision des risques d'indisponibilité des actifs vous permet
d'adopter une approche proactive pour empêcher ou réduire les pannes coûteuses.

 Détectez et empêchez la fraude pour réduire les coûts : Les entreprises sont
confrontées quotidiennement à de nombreuses menaces, parfois externes, parfois
provenant de leurs propres employés ou systèmes. Pour réduire les coûts et les
dommages résultant de la fraude et des autres menaces, vous devez les détecter
plus précocement et les empêcher d’affecter votre activité.

Les trois quarts des entreprises interrogées par l'IBM Institute for Business Value
utilisent l'analyse de Big Data pour détecter les connaissances cachées au
sein de leurs données. Ces connaissances les aident à détecter et empêcher la
fraude et garantissent un fonctionnement harmonieux des opérations. Le
regroupement des analyses descriptives, prédictive et prescriptives au sein d'un
système capable d'identifier les anomalies et de recommander des actions permet
aux décideurs de se procurer les réponses dont ils ont besoin, et au bon moment.

31
Rôle du Big Data dans les risques financiers d’IBM

Une gestion imprécise du risque peut se traduire par des décisions erronées, des
coûts élevés et vous attirer des tracas de la part des organismes de réglementation.
Face à un tel volume de données à analyser, on a besoin d'une approche
systémique pour identifier et évaluer efficacement toutes les vulnérabilités
connues et inconnues auxquelles votre entreprise est exposée.

Dans une étude de 2010, plus des deux tiers de répondants déclaraient avoir subi au
moins un risque important l'année précédente. Sur ces répondants, 20 % seulement
avaient à la fois anticipé et estimé raisonnablement l'impact de cet événement.

Les entreprises doivent identifier chaque risque, quelle que soit sa nature : atteinte à
la réputation, vols de données, risque de non-conformité aux réglementations, et les
pondérer par rapport aux opportunités métier. L'analyse des Big Data permet
d'équilibrer le risque et l'opportunité.

Améliorez la gestion des risques et gagnez la confiance des clients :

L'impact en cascade des chocs qui ont ébranlé le système financier fait qu'il est vital
de pouvoir effectuer un suivi global des risques en temps réel, et d'éviter une gestion
compartimentée en silos. Une approche intégrée de la compréhension du risque,
caractérisée par une plus grande transparence, inspire plus de confiance au
management, aux actionnaires et aux clients.

Optimisez le risque pour obtenir de meilleurs résultats :

Les entreprises décidées à intégrer des processus de gestion des risques


fragmentés doivent aussi synthétiser les différents types de risques - depuis le risque
de fraude en passant par l'atteinte à la réputation ou les risques légaux, et ainsi de
suite - en une vision globale qui doit être incorporée au fonctionnement même de
l'entreprise pour obtenir des résultats métier.

Big Data et la création de nouveaux modèles économiques


Les entreprises les plus performantes ont adopté ces approches innovantes de la
stratégie métier. Elles utilisent les solutions d'analyse pour réfléchir différemment et
obtenir des réponses à des questions que personne n'avait pensé à poser.
L'utilisation de solutions analytiques est en outre 3,6 fois plus élevée dans ces
sociétés que dans les autres. L'analyse du Big Data révèle des connaissances sur
votre entreprise, ses forces et ses faiblesses, et le marché sur lequel elle opère. Elle
fait découvrir de nouvelles perspectives qui peuvent encourager l'innovation dans le
développement de produits, les partenariats et les services.

Utilisez l'analyse du Big Data pour développer de nouveaux secteurs d'activité :

32
Les fournisseurs de services de communications (CSP) doivent créer des produits et
des services toujours plus innovants et tenants compte des données pour satisfaire
une clientèle désormais sophistiquée. A l'aide de l'analyse du Big Data, ils peuvent
analyser les données géographiques de plusieurs millions de périphériques mobiles
afin de toucher davantage de clients en leur proposant des produits, des services et
un marketing ciblés et personnalisés, et ainsi créer de nouvelles opportunités de
revenus.

Big Data et l’amélioration des modèles économiques


informatiques en optimisant les connaissances et garantir la
confiance
Les entreprises capables d'extraire rapidement des connaissances de toutes les
données et d'incorporer l'analyse à toutes leurs opérations se dotent d'un avantage
concurrentiel.

IBM Watson Foundations est une plateforme de Big Data & Analytics aux
fonctionnalités innovantes qui aide les entreprises à faire mieux que la concurrence.

IBM Watson Foundations est un ensemble complet de fonctions Big Data &
Analytics qui vous permet d’analyser toutes les données pertinentes pour obtenir des
connaissances originales en temps réel, et agir en conséquence en toute confiance.

Exploitez et analysez toutes les données : Explorez vos données statiques ou


volatiles au plus près pour disposer d'une analyse et de recommandations en temps
réel dans la gestion des données, entrepôts des données et la gestion de contenu.

Incorporez toute une gamme d’analyse dans l’entreprise : incorporez des


connaissances dans toutes les décisions, tous les processus métier et tous les
systèmes d'interaction pour améliorer les résultats métier dans la gestion des
décisions, la planification et l’analyse prédictive

Soyez proactifs en matière de confidentialité et de gouvernance : assurez-vous que


les données analysées sont sûres, sécurisées et exactes dans l’intégration et la
gouvernance des informations.

Services Big Data dans IBM


Les solutions de Big Data combinent services, logiciels et systèmes pour les
entreprises de toutes tailles

Les services IBM vont de conseils aux entreprises en stratégie et transformation aux
services informatique autour de la technologie cloud.

33
Les logiciels couvrent tous les aspects à partir du stockage et analyse de données
aux outils de collaboration, conception des produits, gestion des centres de données
et développement de logiciels. Leur support est possible grâce aux serveurs et
systèmes de stockage conçus pour répondre à vos besoins actuels en infrastructures
et pour votre croissance à venir.

Les 4 services Big Data d’IBM:


Services managés de sécurité : Protégez vos informations en 24x7 à un coût bien
inférieur à celui d'un système de sécurité interne « Bring your business data into
focus ».

Services de Continuité d'activité et de Résilience : Face à l'augmentation des


menaces contre les entreprises, la continuité est devenue une préoccupation qui va
bien au-delà de l'informatique pure.

Gestion du patrimoine applicatif : Augmentez la valeur ajoutée tout en réduisant les


coûts.

Services de conseil et d’intégration : IBM Global Business Services vous


accompagne pour réussir votre transformation

Les Solutions de Big Data


On dispose de trois solutions de Big Data disponible dans le marché destinées aux
très grandes entreprises ayant une grande quantité de données :

Cloudera : c'est le leader, ce qui lui donne une légitimité avec un nombre de clients
supérieur à celui de ses concurrents. Le fait de disposer du créateur du framework
Hadoop dans ces rangs est un grand avantage.

Map R : cette distribution offre une solution un peu éloignée d'Apache Hadoop car
elle intègre sa propre vision de Map Reduce et HDFS. Elle vient juste après
Cloudera.

Hortonworks : cette distribution est l'unique plateforme entièrement Hadoop. Sa


stratégie est de se baser sur les versions stables de Hadoop plutôt que sur les
dernières versions.

34
CONCLUSION

Le Big Data est en mesure de constituer pour les entreprises un vaste champ de
développement et de création de valeur. La croissance exponentielle des données dont
disposent les entreprises crée des opportunités nouvelles et peut leur permettre de
réinventer leur business model. Par la connaissance très fine des comportements et
habitudes de consommation des clients, les entreprises sont en mesure de créer de
nouvelles offres et de nouveaux produits, améliorer celles et ceux qui existent déjà,
tisser des liens plus forts avec leurs clients, améliorer leurs résultats commerciaux.
Mais le Big Data traite une matière sensible: les données personnelles. La protection de
ces données est assurée par un cadre juridique étoffé, complexe, en évolution
constante et présentant des différences notables, notamment entre les États-Unis où
l’approche réglementaire est sectorielle, et la France et l’Union européenne qui ont
imposé leur propre cadre réglementaire. Exploiter ces données peut donc exposer
l’entreprise à des risques, souvent sous-estimés ou méconnus. Les premiers sont
d’ordre juridique, liés à la non-observation des règles en vigueur. Les autres risques
concernent la réputation de l’entreprise auprès de ses clients si ces derniers ne sont
pas convaincus qu’ils gardent un contrôle sur leurs données personnelles et que
l’entreprise les utilise de façon loyale. Or, la confiance est la clé de la relation entre une
entreprise et son client. Il est donc nécessaire de percevoir avec clarté les enjeux
juridiques du Big Data afin que ce lien de confiance ne soit pas menacé.

Finalement Les technologies de Big Data sont aujourd’hui en plein essor. Dans les
prochaines années, ces technologies seront de plus en plus utilisées pour répondre à
de nouvelles problématiques pour la gestion de données. C’est est un socle aujourd’hui
nécessaire et utile à la plupart des innovations industrielles ou dans le domaine de la
recherche (Etudes sociales par exemple), néanmoins, son utilisation pose la question
de la protection des données privées des utilisateurs : sans freiner la liberté d’innover
des entreprises et de la recherche, dans quelle mesure peut-on et doit-on protéger la
vie privée des utilisateurs?

35
BIBLIOGRAPHIE

 https://fr.wikipedia.org/wiki/Big_data
 http://www-01.ibm.com/software/ma/security/bigdata/
 http://www.ibm.com/big-data/ma/fr/big-data-and-analytics/marketing.html
 Guide Share France : Présentation générale des Big Data ; Olivier
JOUANNOT
 Mémoire de fin d’étude : Big Data, Big Business ? Hugo VIGNAUX et
Pierre FAUDEMER/ 5 MC2 ; 2012/2013
 http://www.winshuttle.fr/chronologie-big-data/
 http://www.histoire-cigref.org/blog/histoire-de-data-big-smart-voire-quantique/
 https://www.solucominsight.fr/2013/08/auw-origines-du-big-data/

36

S-ar putea să vă placă și