A PROPOS DE MOI

Khaled TANNIR Fondateur de dataXper, possède une expérience riche de plus 25 années en tant qu’Architecte Entreprise / Solutions, Enseignant  Big Data dans plusieurs domaines tels que La Finance, L’Asset Management, La Cosmétique et La Presse.

Avec une expérience significative dans les environnements Big Data et la fouille de données, je possède des compétences fortes dans la conception d’architectures de  systèmes d’informations, la gouvernance et la conception d’environnement d’analyse de données massives orientées « temps-réel ».

Au cours de mon expérience j’ai fait le choix de me spécialiser dans les technologies open-source et plus particulièrement les technologies Apache Hadoop et Apache Spark.

Ma Vision

Je me suis donné pour mission d’aider les utilisateurs à analyser et à comprendre leurs données. Je pense fondamentalement que cela repose sur la démocratisation des données. Autrement dit, il faut donner aux utilisateurs qui connaissent bien les données les moyens de les interroger et de les analyser.

Tout analyste doit être en mesure d’accéder facilement à ses données, peu importe leur emplacement. Ces mêmes utilisateurs doivent également pouvoir analyser leurs données et découvrir les informations exploitables qu’elles renferment sans faire appel aux rares élites que sont les spécialistes de la science des données (les « data scientists ») et les développeurs informatiques.

L’analyse et la compréhension des données est cruciale, quel que soit leur volume, car elles permettent de traduire des informations en découvertes et décisions. Cette approche de l’analyse et visualisation des données massives revêt une importance particulière en raison des coûts très élevés que représentent le stockage, la préparation et l’interrogation de ces données.

Par conséquent, les entreprises doivent tirer parti de sources de données optimisées et appliquer les meilleures pratiques de manière rigoureuse pour permettre à ses utilisateurs d’interroger directement cette gigantesque quantité de données. Le Big Data a donné lieu à de nombreuses innovations ces dernières années. Les options disponibles aujourd’hui sont par conséquent variées et présentent des avantages différents.

Personnellement, je considère qu’il faut soutenir toute plate-forme Big Data qui devient importante pour les utilisateurs et les aider à interagir en temps réel avec leurs données.

Les Livres que j’ai écrits

Ce livre vous présente les concepts avancés de MapReduce et vous apprend tout, de l’identification des facteurs qui affectent les performances du travail MapReduce au réglage de la configuration de celui-ci. Basé sur l’expérience du monde réel, ce livre vous aidera à utiliser pleinement les ressources de votre cluster pour exécuter les tâches MapReduce de manière optimale.

RavenDB est une base de données documentaire de deuxième génération écrite en .NET, offrant un modèle de données flexible conçu pour répondre aux exigences provenant de systèmes réels. Il est différent des autres bases de données de documents, car avec RavenDB, vous pouvez être opérationnel en quelques minutes, et cela comprend la compréhension de toutes les bases. Il vous permet de créer des applications hautes performances à faible latence avec facilité et efficacité.

Brève Histoire de mon Parcours

2010

Inscription à l'Ecole Doctorale

Obtention d’un Master Recherche pour entrer à l’école doctorale de l’Université Cergy-Pontoise – France

Préparation d’une thèse de doctorat autour de l’Optimisation des algorithmes de fouilles de données dans un environnement cloud.

 

EDI Cergy-Pontoise

2012

Participation à EGC 2012

Forum de Fouille de données complexe : complexité liée aux données multiples et massives.

Dans le cadre d’une session Workshop, j’ai participé à EGC 2012 en tant que orateur pour présenter mon travail.

Dans cette session je présente les premiers éléments de définition d’un algorithme permettant de déterminer le nombre optimal de machines virtuelles (VM – Virtual Machines) lors de l’exécution des applications de fouille de données dans un environnement Cloud. L’efficacité de traitement des problèmes de fouille de données requiert d’obtenir au préalable un partitionnement intelligent de données par clustering de manière à effectuer le plus indépendamment que possible les traitements des fragments de données à cohérence sémantique forte.

Site officiel de l’événement
Télécharger l’article soumis au format pdf

2010

Ecole d'Ingénieurs du CNAM - France

Obtention du grade Master en Système d’information avec une mention Excellent et une note de (17/20) après un cursus universitaire qui a durée 3 ans.

 

Ecole Ingenieur CNAM

1991

Université Paris VIII (Saint-Denis)

Préparation et obtention d’un diplôme de spécialisation (DESS) en télécommunications numériques.

 

univ-paris8

1982

Ecole Technique Supérieure Amilieh (Liban)

Préparation et obtention du diplôme Techniques de l’Electronique suivi d’une spécialisation en automatisation et robotique. Il s’agit d’un cursus d’une durée de 4 ans qui permet d’obtenir un diplôme équivalent au  Brevet de Technicien Supérieur en France (2 ème année universitaire).

Les livres que j’ai revus

ORATEUR / INSTRUCTEUR A

Quelques Chiffres Clés

4Diplômes Universitaires
30Certificats Big Data et autres
4Langues