Le média des professionnels du digital
Le média des professionnels du digital
Fermer

Les compétences et le rôle du data analyst, scientist, engineer et architecte data science

Thomas Coëffé, le 30 mars 2017

Data scientist et data analyst sont sans doute les métiers les plus emblématiques du champ d’expertise « data ». Pour autant, il n’est pas toujours simple de comprendre les différences entre ces deux professionnels – et ne parler que de ces deux métiers est fortement réducteur. Pour mieux comprendre la typologie des métiers de la data, nous sommes allés à la rencontre du DataLab RegionsJob. Depuis plusieurs mois, une équipe s’est structurée au sein de l’entreprise pour exploiter et valoriser au mieux les données. Voici le rôle de chaque membre de la team data et les compétences exigées pour exercer leurs métiers.

RegionsJob recrute actuellement un(e) Data Engineer H/F en CDI à Rennes pour renforcer son DataLab. La fiche de poste est accessible sur Hellowork.

Data analyst

Le data analyst a pour mission d’agréger des données venant de multiples sources, de les analyser et d’en extraire des informations permettant à l’entreprise de mieux piloter ses activités et d’anticiper ses futurs besoins.

Une partie essentielle de son travail est de restituer les conclusions de ses analyses aux autres services de l’entreprise, sous différentes formes (rapports, tableaux de bord, présentations). Le data analyst doit donc avoir une compréhension fine des activités de son entreprise, et être un excellent communicant. Doté de solides compétences en statistiques, à l’aise avec la visualisation de données, le data analyst doit également maîtriser les outils de Business Intelligence et le requêtage de bases de données.

Data scientist

Le data scientist a la même mission que le data analyst, exploiter et valoriser les données, mais dispose de compétences différentes. En un sens, le data scientist se substitue au data analyst quand l’analyse des données devient plus complexe et exige la maîtrise de techniques et outils plus pointus. Cela peut être le cas quand le volume des données devient très grand (big data), quand les données doivent être traitées très rapidement (pour des applications en temps réel, par exemple), quand la nature même des données exige des traitements spécifiques (traitement du langage ou des images), ou quand le problème à résoudre nécessite une modélisation poussée relevant davantage de la R&D que de la restitution de statistiques.

On exige généralement d’un data scientist une double compétence en machine learning et en développement software, une réelle compréhension des problématiques de l’entreprise, et une bonne capacité de communication. La balance idéale entre ces différentes compétences dépend ensuite de la nature des tâches demandées au data scientist.

Au sein du DataLab de RegionsJob, par exemple, les data scientists concentrent leurs efforts sur quelques grands enjeux:

  • Les algorithmes de recommandation ont pour but de proposer aux utilisateurs des services de RegionsJob (recruteurs, particuliers à la recherche d’un emploi ou de formation) du contenu personnalisé, adapté aux aspirations de chacun. Ces algorithmes présentent des points communs avec ceux déployés sur les sites de e-commerce (comme Amazon) ou de streaming (comme Spotify), mais ont été développés spécifiquement pour l’emploi et de la formation. C’est par exemple grâce à ces algorithmes qu’un utilisateur peut être averti qu’une offre d’emploi susceptible de l’intéresser vient juste de paraître.
  • Les algorithmes de traitement du langage permettent d’extraire les informations pertinentes de différents types de documents (offres d’emploi, descriptifs de formation, CVs), d’enrichir l’ontologie de RegionsJob (un grand graphe connectant métiers, formations, compétences, etc.) et d’améliorer la recherche par mots-clefs.
  • Les algorithmes de clustering visent à segmenter l’audience des sites de RegionsJob, mais aussi leur catalogues d’offres et de formations.

Architecte data science

Au sein du DataLAb, l’architecte identifie les différentes sources de données aussi bien internes qu’externes qui pourront alimenter le data lake. Il s’appuie pour cela sur une vision transverse du système d’information de l’entreprise et réalise une veille sur les sources d’informations type open-data.

Le poste comporte également une part importante de veille technologique car il doit identifier et préconiser les technologies qui seront les plus pertinentes pour gérer le volume et le flux de donnée. Il construit ensuite avec le data engineer l’architecture des systèmes d’agrégation et d’organisation en veillant aux aspects de scalabilité et résilience des éléments mis en place ainsi qu’au caractère évolutif de la solution.

Ainsi, une des premières missions du DataLab RegionsJob a été de concevoir puis de déployer dans le cloud une infrastructure de tracking événementiel et de génération de profil, ce qui a permis de délivrer en temps réel des recommandations d’offres d’emploi aux visiteurs des sites emplois.

En mode agile itératif, l’équipe est dans une perpétuelle démarche d’amélioration : elle enrichit ses sources de données, travaille sur l’amélioration des algorithmes et met en place des API pour proposer aux différentes équipes produits des services basés sur la connaissance de nos données.

Data engineer

Le data engineer du DataLab RegionsJob s’occupe du côté applicatif permettant le travail des data scientist. Il développe et entretient les systèmes de collecte, stockage et mise à disposition des données.

Il doit s’assurer que l’infrastructure reste fluide et opérationnelle. L’équipe travaille avec des volumes de données importants : les applications doivent être robustes. Une interruption provoque la perte de nombreuses données. Pour cela il développe, automatise les déploiements, installe des sondes afin de surveiller l’ensemble du système. C’est un développeur avec un intérêt pour le DevOps.

Pour renforcer son DataLab, RegionsJob recrute un(e) Data Engineer H/F en CDI à Rennes

Le data engineer accompagne les équipes produit qui veulent exploiter les données en les aidant à déployer les solutions d’envoi et de récupération de données traitées par les data scientists. Enfin, avec l’architecte, il reste en veille pour maintenir et faire évoluer l’architecture Big Data en vue de traiter des volumes de données toujours plus importants. La journée type du data engineer, c’est 50 % de dév’, 20 % d’étude et spécification, 20 % d’accompagnement et résolution de bugs et 10 % de veille.

Grâce aux méthodes agiles, les membres du DataLab RegionsJob échangent chaque matin pour bien maîtriser les métiers de chacun. Chacun apporte ses idées et la réflexion sur le traitement de la donnée est globale ! Les dashboards de santé du système sont visibles de tous, l’équipe est à l’écoute des besoins et idées de chaque équipe ce qui lui permet d’améliorer le système tous les jours.

Merci aux membres de l’équipe DataLab : Elizaveta Clouet, Stéphane Bonneau, Jean-Luc Tromparent et Antoine Grolier.

Recevez nos meilleurs articles

En vous abonnant, vous acceptez les CGU

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *