Idea

From Epidemium
Jump to: navigation, search


Epidemium LogoPetit.png

Intuitive Datavizualisation for Epidemiologic Analysis

IDEA is a collaborative platform that allow every enthusiast to explore ,comment and share data visualization with their community. With the help of machine learning, IDEA will offer to untrained/unskilled users/medical professionals the simplest way to produce data visualization and explore new ideas. IDEA is a new way, for the scientific community, to search together .

Page projet sur la Plateforme Epidemium

Contents


Prélude

Pourquoi participer au Challenge ?

Après une première participation à l'édition 2015 / 2016 du Challenge4Cancer qui nous avait permis de mettre sur pied un concept de serious game au service de la sensibilisation à l'expositions aux facteurs de risque du cancer, Conix a souhaité continuer l'aventure au travers du challenge 2017, pour continuer cette aventure humaine et collaborative au service de la recherche contre le cancer.

Pour cette nouvelle édition, l'équipe Conix constituée d'éléments de la première heure mais aussi de nouvelles recrues à souhaiter mettre en œuvre de nouvelles compétences dans le domaine de la data science et, particulier, du machine learning.

Le premier challenge avait été pour nous l'occasion de développer notre savoir faire dans la Data science au travers d'un projet collaboratif qui avait regroupé des collaborateurs de différents horizons. L'échange d'idée, la découverte du savoir faire de chacun et la richesse des échanges avec la communauté nous avaient permis de faire émerger un concept original, récompensé par le 3eme prix du challenge ainsi que par le prix de l'originalité du model.

Cette année, la nouvelle organisation du challenge nous a demandé beaucoup d'adaptation pour continuer cet effort d'innovation.

Malheureusement, le calendrier de l'édition 2017 ne nous a pas permis de réunir autant de ressources qu'à la première édition mais c'est fort d'un noyau de 5 collaborateurs auxquels se sont adjoint au travers de quelques participations plus d'une dizaines d'autres collaborateurs.

Un autre point qui nous a poussé dans nos retranchements était le cadre plus strict du challenge quant au choix du thème. Notre volonté ayant toujours été de proposer des idées originales, nous avons décidé de choisir le thème que l'on pensait être le moins visible par la communauté de Data scientist Epidemium à savoir le challenge See Cancer.

Notre équipe

Photo Nom et Prénom Compétences
Ngagne.jpg Ngagne LO
  • Analyse de données
  • Data visualisation
  • Showman
Matthias.jpg Matthias FERRAINA
  • Analyse de données
  • Dev Frontend
  • Data visualisation
DSF3392-Modifier.jpg Thibaud BLANCHARD
  • Machine learning
  • Dev Backend
Patrice.jpg Patrice TCHOUAN
  • Architect master
  • Docker man
David-2.JPG David BLANCO
  • UX Designer
  • Data Visualisation Master
Hamza.png Hamza ABI
  • Dev Frontend
  • Data visualisation
  • Showman

L'organisation

Comme pour la première édition, nous avons privilégié l'utilisation d'outils de gestion et de communication Agiles. Pour la gestion du projet, l’application Trello . Elle permet de créer et de suivre des tâches, les affecter à des personnes, les clôturer et effectuer bien d’autres actions utiles. Tout cela très de manière très ergonomique. Ainsi, nous pouvons visualiser aisément les tâches à effectuer au cours de chacun de nos Sprint.

Afin de communiquer entre nous, nous utilisons Salesforce Chatter qui est le RSE (Réseau Social D’Entreprise) de CONIX. Ce choix a permis d’éviter la mise en place d’un autre moyen de communication qui aurait été redondant.

Afin d’échanger nos idées et de faire avancer le projet, nous nous réunissons dans les locaux de Conix une fois toutes les 3 semaines. C’est l’occasion de faire un point d’avancement du Sprint en cours, et d’évaluer le « reste à faire ».

  • Sprint 0 -> 06/06 - 26/06 : Découverte du contexte
  • Sprint 1 -> 26/06 - 17/07 : Définition des cas d'usage
  • Sprint 2 -> 17/07 - 07/08 : Définition du projet
  • Sprint 3 -> 07/08 - 28/08 : Etat de l'art
  • Sprint 4 -> 28/08 - 18/09 : Design
  • Sprint 5 -> 18/09 - 09/10 : Conception
  • Sprint 6 -> 09/10 - 30/10 : Développement
  • Sprint 7 -> 30/10 - 20/11 : Développement
  • Sprint 8 -> 20/11 - 05/12 : Rédaction

L'un des retours de la première édition du challenge Epidemium était le manque d'échange avec la communauté médicale qui avait amené les équipes à proposer des projets intéressants mais ne répondant pas à des problématiques concrètes dans la recherche scientifique et médicale.

Afin de ne pas tomber dans ce biais, nous nous sommes organisés pour participer à l'ensemble des Meetup lancés par la communauté et en particulier ceux autour de l'épidémiologie afin de mieux comprendre le quotidien des chercheurs et de maximiser nos échanges autour des cas d'usage que nous souhaitions adresser.

Notre projet

Notre projet est né du constat suivant, la communauté scientifique et médicale interagie selon une organisation qui donne a chaque profil une tache bien précise dans le traitement des données médicales. Chacune de ces taches est exécutée selon un cadre bien précis qui garantie que l'interlocuteur pour lequel on produit un élément de la chaîne obtiendra bien ce qu'il attend. Ainsi un médecin ou un chercheur ayant besoin d'une représentation graphique demandera à un cartographe, par exemple, d'établir une représentation d'un corpus de données pour mettre en évidence un fait particulier surement identifié par un statisticien dans l'analyse de données fournies par un tiers, etc ...

Nous avons donc décidé de volontairement "casser" cette organisation pour fournir un outils qui permet à n'importe quel maillon de cette organisation de demander sur la base d'un jeu de données quelconque une représentation parmi l'ensemble des data visualisations existantes ou à venir. A l'inverse de la logique de dire qu'il faut choisir la bonne représentation pour faire ressortir l'information qu'un profil en particulier souhaite mettre en avant dans un jeu de données, nous avons décidé de prendre le parti de mettre en œuvre un mécanisme qui explore toutes les manières de représenter un jeu de données et de confronter ces représentations à la communauté de tous les acteurs de la rechercher et d'apprendre des retours de cette communauté au travers de l'émulation que cette représentation peux créer (ne vous inquiétez pas c'était la phrase la plus longue de cette page).

Le problème majeure de cette approche, au delà du fait qu'il nous fallait trouver un moyen de proposer de manière générique une présentation pour n'importe quel jeu de données, était de trouver un moyen de capter le retour de la communauté sur les éléments produits pour apprendre de cette expérience.

Nous avons donc décidé d'établir ce mécanisme au sein d'un réseau social orienté vers l'échange et le traitement de données et de représentation de données médicales propice à l'émergence de nouveaux axes de recherche. Il s'agissait donc d'utiliser le machine learning, non pas pour trouver des solutions à la place des spécialistes mais pour proposer à la communauté de nouvelles approches pour développer l'intelligence collective et l'idéation.

Sprint 0 : Du 6 juin 2017 au 26 juin 2017 : Découverte du contexte

Objectifs : Comprendre le challenge

  • Comprendre la nouvelle organisation du challenge
  • Analyser les challenges
  • Etudier la CK map

Production

Comprendre la nouvelle organisation du challenge

Contrairement à la précédente édition, Epidemium a décidé de définir les challenges non pas par thème mais par problématique. De plus l'équipe Epidemium avait déjà fait une bonne partie du travail sur la préparation des données. Nous avons d'abord pris cela pour une contrainte puis nous y avons vu un moyen de d'explorer de nouveaux aspects du challenge, à savoir travailler plus sur l'analyse de la situation des chercheurs plutôt que de se concentrer sur la recherche de résultat.

Analyser les challenges

Notre choix s'est porté rapidement sur le challenge See Cancer étant donné qu'il nous donnait plus de matière pour étudier la manière dont aujourd'hui la communauté interagissait avec les données et la manière dont elle exploitait les résultats.

Etudier la CK map

Nous avons décidé de prendre le temps d'étudier la CK map et de rencontrer la communauté au travers des meet up avant de nous plonger le brainstorming dans le sprint suivant.

La CK map nous a permis de comprendre l'étendue des axes de recherche à explorer dans l'usage de la data science au service de l'épidémiologie, mais elle nous a aussi permis au travers de l'analyse de la méthode utilisée de nous initier à de nouvelles façons de traiter de l'innovation. La rencontre avec la communauté au travers des Meet-up a clairement été un vecteur d'accélération et d'innovation dans le travail d'idéation que nous avons mené par la suite.

Sprint 1 : Du 26 Juin au 17 Juillet 2017 : Définition des cas d'usage

Objectifs : partager la problématique

  • Dégager des problématiques
  • Imaginer de nouveaux cas d'usage
  • Identifier des fonctionnalités innovantes

Production

Dégager des problématiques

Sur la base de l'analyse de la manière dont aujourd'hui la communauté scientifique et médicale travaille dans le cadre de la recherche en épidémiologie du cancer, nous avons établi les éléments suivants :

  • les représentations de données sont établies en fonction de ce que l'on souhaite mettre en avant
  • les représentations de données sont fonctions de la nature des données étudiées
  • les représentations de données sont produites par quelques profils bien particulier
  • la production de ces représentations de données n'est généralement pas accessible aux membres de la communauté médicale
  • les représentations de données sont généralement partagées à la fin de l'étude au travers de publication longtemps après leur production
  • au sein même d'une communauté restreinte (laboratoire, centre hospitalier, etc ...) les représentations de données et les données sont rarement partagées

Imaginer de nouveaux cas d'usage

Une fois la compréhension du contexte bien établie (dans la limite du temps disponible ;), nous avons cherché à imaginer de nouvelles manières de traiter les jeux de donnée que manipule la communauté des scientifiques, chercheurs, médecins dans le cadre de la recherche en épidémiologie.

Nous avons retenus les 3 cas d'usage suivants :

  • N'importe quel utilisateur de la communauté peut produire une représentation de données de manière autonome
  • N'importe quel utilisateur de la communauté peut soumettre un jeu de données ou une représentation de ces données à la communauté
  • N'importe quel utilisateur de la communauté peut donner son avis sur un jeu de données ou une représentation de ces données partagés par un autre membre

Identifier des fonctionnalités innovantes

Le traitement du premier cas d'usage est au centre du projet IDEA. Au delà du fait que nous souhaitions permettre à n'importe quel utilisateur, sans connaissance particulière en traitement de données, de produire une restitution, nous voulions trouver un moyen d'explorer tout le potentiel des nombreux types de data visualisations qui existent aujourd'hui et qui s'enrichissent de nombreuses nouvelles idées chaque jour. Un spécialiste aura tendance à produire le même type de représentation pour une problématique connue ce qui donne peu de chance d'envisager l'utilisation d'autres types de représentation et donc de dégager de nouveaux points de vue sur la donnée.

Nous avons donc décidé, volontairement, de retirer la possibilité à l'utilisateur de choisir le type de restitution au profit d'un algorithme de Machine Learning qui devra, sur la base d'un jeu de données sélectionné par l'utilisateur, choisir dans un lot de types de restitutions la data visualisation qui se prête le mieux.

Pour garder une dose d'indéterminisme dans ce choix et permettre l'exploration du potentiel des nombreuses data visualisations à notre disposition, nous avons sélectionné le principe de l'apprentissage renforcé pour permettre non seulement l'apprentissage de l'utilisation des data visualisation les plus pertinentes en fonction des retours de l'utilisateur mais aussi l'exploration d'autres types de data visualisation moins usitées.

Cependant, l'apprentissage renforcé nécessite d'obtenir un retour de l'utilisateur pour lui indiquer si la proposition de restitution est intéressante ou non. Sachant que nous souhaitons favoriser l'intelligence collective, nous avons donc décidé d'exploiter le retour de la communauté plutôt que celui de l'utilisateur qui a demandé la data visualisation. Nous avons donc décidé de travailler sur des fonctionnalités permettant de diffuser les représentations de données à la communauté et d'en obtenir une évaluation selon leur succès.

Nous nous sommes donc basé sur le principe du réseau social pour le partage et la capacité à commenter du contenu en intégrant des fonctionnalités aptes à exploiter et échanger des jeux de données.

Sprint 2 : Du 17 Juillet au 7 Aout 2017 : Définition du projet

Objectifs : construire le projet

  • Définir le périmètre du projet
  • Evaluer les compétences
  • Définir un plan d'actions

Production

Définir le périmètre du projet

Une fois les cas d'usage établis et les principales fonctionnalités nécessaires à leur couvertures définies, nous avons dû nous mettre d'accord sur les objectifs que nous souhaitions atteindre dans le cadre du challenge et au delà. En effet, de part le calendrier du challenge, nous avions un nombre limité de ressources à notre disposition à cause des nombreux projets que mènent nos collaborateurs et la période des congés d'été qui n'étaient pas propice à la mobilisation.

Nous avons cependant estimé que le côté innovant du projet IDEA nécessitait de pousser jusqu'au bout la logique et donc de chercher à produire une solution fonctionnelle de notre concept et non pas seulement la partie apprentissage renforcé.

Nous avons cependant décider de ne pas réaliser l'ensemble des briques fonctionnelles de la solution et de chercher à réutiliser au maximum des solutions existantes pour couvrir les fonctionnalités standard de la solution tout en respectant les contraintes de licences imposées par le challenge.

Evaluer les compétences

Les compétences nécessaires pour mettre en œuvre notre projet étaient assez nombreuses et pour la plupart non maîtrisées par les membres de notre équipes :

  • Dev Front : ++
  • Dev Back : +
  • Apprentissage renforcé : --
  • UX : ++
  • Technologie de réseau social : --
  • Data visualisation : ++
  • Design : -
  • ...

Définir un plan d'actions

Afin de maximiser nos chances de réussir à atteindre les objectifs que nous nous étions fixés, malgré le calendrier et malgré le manque de compétences de notre équipe,nous avons établi un plan d'actions qui nous permettait de planifier notre montée en compétence sur les sujets que nous ne maîtrisions pas tout en avançant sur la conception de la solution.

L'apprentissage des technologies s'est opéré grâce à l'utilisation de formations en ligne de type MOOC ou au travers de plateformes telles que codecademy ou openclassroom.

Pour la partie apprentissage renforcé, le dépoussiérage des cours d'IA d'il y a 15 ans a été nécessaire, ainsi que l'algèbre linéaire et le décorticage des articles sur le sujet.

La mise en place des sprints nous a permis de définir un rythme et de donner de la visibilité aux autres collaborateurs qui souhaitaient participer de manière plus ponctuelle au projet.

Sprint 3 : Du 7 Aout au 28 Aout 2017 : Etat de l'art

Objectifs : Quid de l'utilisation de l'apprentissage renforcé dans la production de data visualisation

  • Recherche des publications
  • Dépouillement des articles
  • Synthèse

Production

Recherche des publications

Dès le début de nos recherches, nous avons vite compris que nous allions avoir des difficultés à trouver des éléments associant la notion de machine Learning et de data visualisation dans le contexte que nous avions fixé.

En effet, une grande part de la recherche en Deep Learning ces dernières années traite de l'interprétation du signal et le plus souvent de données visuelles. Peu importe le moteur de recherche de publication que nous utilisions, nous avions une quantité astronomique de résultats sans moyen de restreindre de manière appropriée notre étude.

La majorité des articles traitaient de l'utilisation du Deep Learning pour analyser des images. La représentations des résultats étant généralement choisis par le data scientist lui même.

Nous avons donc décidé de séparer notre étude en deux. D'un coté nous avons recherché les publications sur les méthodes de choix de représentation des données en fonction de leur nature et de la nature de l'analyse et d'un autre coté nous avons recherché les articles traitant de l'utilisation de l'apprentissage renforcé dans le cadre de l'analyse des statistiques d'utilisation des réseaux sociaux et des stratégies d'exploration à long terme.

Dépouillement des articles

Nous avons retenus les éléments suivants dans notre étude :

  • Asynchronous Methods for Deep Reinforcement Learning [Google DeepMind]
  • Reinforcement Learning : An Introduction [Richard S. Sutton and Andrew G. Barto]
  • Retrouver le nom de la thèse sur la data viz
  • Retrouver la these sur la séléction de la data viz la plus pertinante
  • ...

Synthèse

Malgré l'effort et le temps consenti à la cherche et le dépouillement des articles, nous n'avons trouvé que très peu d'éléments probants au regard de notre étude.

En effet, l'utilisation de l'apprentissage renforcé n'a que peu d’intérêt dans le cadre du choix d'une data visualisation dans le sens ou le choix d'une représentation d'une données est en soit très relatif au public visé et à l'information que l'on souhaite y retrouver. De plus l'apprentissage renforcé apporte une part d'indéterminisme qui se marie assez mal avec l'intégration d'une logique bien établie sur le type de représentation adéquat pour un domaine donné. Nous avons retrouvé l'utilisation d'autres algorithme de marchine learning tel que les arbres de décision pour l'intégration de ce genre de logique.mais rien concernant le cadre de notre étude.

Nous avons cependant pu explorer les différentes stratégies d'apprentissage renforcé étudiées ces dernières années et arrêté notre choix sur l'algorithme A3C qui se prêtait assez bien a notre problème.

Enfin les documents que nous avons pu trouver sur l'analyse du choix d'une représentation de données en fonction de la donnée étudiée se focalisaient largement plus sur le type de public visé et sur l'information que l'on souhaitait transmettre au travers de la restitution plutôt que sur la nature même des données utilisée (Il existe bien sur une logique qui s'appuie sur la nature des données pour le choix d'une représentation, mais celle-ci ne répondait pas à notre volonté d'exploration de toutes les nouvelles data visualisation qui apparaissent aujourd'hui).

Sprint 4 : Du 28 Aout au 18 Septembre 2017 : Design

Objectifs : Construire une vision de la solution

  • Etablir une marque, un thème et un logo
  • Construire des maquettes
  • Valider le concept

Production

Afin de fédérer l'équipe autour d'un concept ambitieux, il était important pour nous d'établir une marque le plus tôt possible qui pourrait nous aider à retranscrire toutes les idées que nous avions eu depuis le début du projet.

3 éléments devaient être retranscris dans cette marque :

  • la data visualisation
  • l'approche collaborative
  • la notion d'idéation

Le thème devait reprendre les couleurs de notre société (jaune blanc et bleu) afin de garder l'idée initiale d'en faire un projet d'entreprise.

L'association de ces éléments nous a permis de trouver le titre du projet : IDEA pour Intuitive Data-visualisation for Epidemiologic Analysis

Et les logos suivants :

Epidemium LogoPetit.png

Epidemium.png

Construire des maquettes

Sur la base du thème que nous avons choisi, des cas d'usage et des couleurs de la société, notre UX Designer en chef s'est attelé à la création de plusieurs maquettes d'écrans et à leur intégration dans l'outils Marvelapp (C'est par ici => [1]) pour nous donner un premier aperçu de ce que pourrait être la navigation dans le portail IDEA.

Cette mise en situation nous a permis d'affiner notre vision du projet et d'élaguer les fonctionnalités qui ne semblaient pas pertinentes.

Après quelques itérations, nous avions la base du concept et nous pouvions entamer la conception à proprement parlé de la solution.

Maquette 1 : Image1.png

Maquette 2 : Image2.png

Maquette 3 : Image3.png

Maquette 4 : Image4.png

Maquette 5 : Image5.png

Maquette 6 : Image6.png

Valider le concept

Le point de mi-parcours a été pour nous l'occasion de confronter les premier éléments visuels du portail avec la communauté Epidemium.

Les retours que Ngagne et Hamza ont pu avoir avec les membres du jury et les participants au challenge Epidemium nous ont beaucoup encouragé dans la direction que nous avions donné au projet.

Sprint 5 : Du 18 Septembre au 9 Octobre 2017 : Conception

Objectifs :

  • Conception fonctionnelle
  • Conception technique
  • Conception du module d'apprentissage renforcé

Production

Conception fonctionnelle

Pour le dossier de spécification fonctionnelle c''est par la => [2]

Conception technique

L'architecture technique du portail IDEA repose sur l'utilisation de plusieurs technologies :

  • Node.js est utilisé pour le développement du back end du portail, l'intégration de l'API du portail IDEA permet de faire transiter par celui-ci toutes les flux
  • Boostrap et Angular sont utilisés pour le développement d'un front responsive
  • Les fonctionnalités du réseau social sont assurés par Mastodon qui abrite une API encapsulé par le serveur Node.js
    • La gestion du référentiel utilisateur est assuré par Mastodon ainsi que l'attribution des tokkens de sécurité
    • Mastodon implémente le meme fonctionnement que tweeter, il est open source et peut être utilisé seul ou connecté avec d'autre instances Mastodon ou Tweeter
    • Il s'appuie sur PostgreSQL qui contient toutes les stats d'utilisation
  • L'ensemble des documents et des dataset partagés sur IDEA sont stocké dans un cluster Hadoop.
  • Un moteur elasticsearch permet d'indexer toutes les statistiques d'utilisation ainsi que tous les datasets et documents présent dans Hadoop
    • Cela permet de centraliser toutes les données nécessaires au moteur de recherche du portail IDEA
  • Tensor Flow a été choisi pour abriter le moteur d'apprentissage renforcé utilisé dans IDEA
  • L'ensemble des services (à l'exclusion des instances hadoop) ont été dockerisés pour facilité le déploiement et la maintenance de l'ensemble
  • Deux éléments n’apparaissent pas dans le schéma ci-dessous,
    • MongoDB comme base applicative du portail pour sa facilité d'utilisation
    • RAWGraph pour la standardisation des data visualisations du framework D3.js

Architecture.PNG

Conception du module d'apprentissage renforcé

Le module d'apprentissage renforcé repose sur la modélisation suivante :

  • L'environnement étudié par l'algorithme est constitué du corpus de données ainsi que sur les statistiques de la communauté
  • L'agent prend en entrée 2 éléments, le dataset et les préférences utilisateurs
  • Sur la base de ces éléments, l'agent (IDEA) propose un type de dataviz ainsi que les éléments de paramétrage de celle-ci (pour l'instant la liste des champs ordonnés selon leur ordre d'utilisation dans la dataviz)
  • A la suite de la diffusion de la dataviz proposé dans le réseau social, l'agent reçoit des statistiques comme récompense qui lui indique si l'élément proposé est satisfaisant ou non
  • Il peut ensuite adapté son comportement pour proposer une autre solution à la prochaine demande

Rl.PNG

D'une manière globale, le processus de génération d'une data visualisation se comporte de la manière suivante :

  • Un utilisateur sélectionne dans un jeu de données, un corpus de données qu'il souhaite soumettre à IDEA
  • Une matrice est générée contenant un descriptif du corpus sélectionné (cf SFD)
  • Il est soumis à Tensor Flow qui sur la base de la popularité de l'ensemble des dataviz générées par le passé (ce n'est pas exactement comme cela fonctionne mais ça donne une idée du principe) propose un type de data visualisation et la liste des colonnes soumises ordonnée (au regard u paramétrage de la data viz)
  • L'ensemble est ensuite soumis à l'API de RAWGraph qui produit le code "HTML" de la dataviz qui est renvoyé à l’utilisateur pour diffusion, si il le souhaite, dans le réseau social

Datavizrequest.png

Sprint 6 & 7 : Du 9 Octobre au 20 Novembre 2017 : Développement

Objectifs :

  • Mise en œuvre de l'architecture
  • Développement des briques
  • Reste à faire

Production

Mise en œuvre de l'architecture

La première étape nécessaire à la réalisation du portail IDEA a été la mise en oeuvre de l'architecture proposée.

Nous avons pu au sein de l'infrastructure virtualisée de Conix créer les machines nécessaires et monter les services dockerisés attendus.

Nous avons du nous familiariser avec l'ensemble des ces briques pour les installer et les paramétrer correctement ce qui n'a pas été simple.

Développement des briques

La travail de développement a été réparti en 3 équipes, une équipe pour la réalisation du Front, une équipe pour le Back et une équipe pour la partie Tensorflow.

Malgré la préparation du terrain avec la conception et la réalisation du dossier de spécification, nous avons rencontré (et rencontrons encore) beaucoup de problème d’adhérence entre les différentes briques ce qui ralenti énormément notre travail.

De plus la prise en main de nouvelles technologies implique souvent de faire des erreurs et de devoir refaire une partie du travail mais nous ne perdons pas espoir :)

Reste à faire

A l'heure de la clôture du challenge, nous n'avons malheureusement pas pu produire une version fonctionnelle du portail IDEA.

La partie Front et le Back sont déjà bien avancées mais ne communiquent pas encore entre elles.

L'algorithme d'apprentissage est en capacité de traiter un corpus de données mais l'implémentation des fonctions de récompenses à partir de l'analyse des statistiques du réseau social ne sont pas implémentées.

L'intégration de RAWGraph est encore a l'état de balbutiement mais est prometteuse.

Nous espérons néanmoins pouvoir faire une démonstration du portail IDEA à la soutenance en Janvier 2018.

Sprint 8 : Du 20 Novembre au 5 Décembre 2017 : Rédaction

Objectifs : Retranscrire notre aventure

  • Description du projet
  • Synthèse des sprints
  • Construction du poster

Production

Description du projet

Synthèse des sprints

Construction du poster

Conclusion

L'aventure Epidemium

Après 6 mois de travail en parallèle de nos missions et de nos projets respectifs , les collaborateurs de Conix ont su pour la seconde fois collaborer pour mettre sur pied un projet innovant.

Cette édition du challenge Epidemium aura été pour nous l'occasion de nous intéresser encore un peu plus à la recherche contre le cancer, à l’épidémiologie et à la data science.

Les nombreux échanges que nous avons eu avec la communauté et la qualité des meet up et des conférences organisées nous ont ouvert de nouvelles perspectives dans notre activité et dans la collaboration avec le monde médicale.

Le projet IDEA

Le projet IDEA n'en est pour nous qu'a ses débuts. Les 6 mois du challenge ont été jalonnés d'imprévus et d'impondérables dans notre travail au sein de notre société qui ne nous a pas permis d'atteindre tous les objectifs que nous nous étions fixés en particulier sur la réalisation.

Nous souhaitons cependant continuer à développer ce concept dans le cadre de notre activité et le partager avec la communauté car il nous semble intéressant de favoriser l’émergence de concepts au service de l'intelligence collective en particulier dans le cadre de la recherche scientifique.

Next steps

Les prochaines étapes du projet IDEA sont la finalisation des développements. Il faudra ensuite faire appel à la communauté pour essayer le portail et mesurer la capacité d'apprentissage de l’algorithme qui est directement dépendant de l'activité de production et d'analyse des data visualisations produites sur le réseau social.

Enfin, si les résultats sont probants, nous souhaiterions travailler sur une publication de notre résultat sur ce type d'approche pour favoriser le processus d'idéation au sein d'une communauté scientifique pour le développement de nouveaux axes de recherche.