Bonjour à vous cheres lectrices et lecteurs.
Depuis quelques mois, je m'essaye à l'analyse des données. Cette discipline a un bel avenir devant elle, et comme toute activité informatique, elle peut être éthique ou non.
Sur unemployaid.com, nous ne collectons pas et ne partageons pas vos données personnelles. Je suis donc assez démuni pour "profiler" (à lire avec un accent anglais) mes utilisateurs, même si, à terme, je serais heureux de mettre en place des outils plus efficaces pour vous présenter des opportunités ou des informations qui vous seraient utiles. Mais je me refuserai toujours à scruter vos clicks sans un consetement explicite et clair de votre part et je ne parle pas des consentement arrachés de force par la majorité des sites internet.
En revanche, je dispose d'un bon volume de données sur les informations que je vous présente, en particulier les annonces emploi. Pour chaque annonce, j'ai une idée de sa localisation, de l'entreprise, de l'intitulé du poste, de sa date de publication etc.. Bien sûr, je ne présente que ce qui m'est accessible sur internet et je ne peux pas prétendre à l'exhaustivité, mais c'est déjà une bonne base pour des exercices simples d'analyse et de présentation de données.
Les "data scientists", ou les experts en traitement de l'information, disposent de nombreux outils, dont certains sont accessibles en open-source et très efficaces.
En ce moment, je m'exerce à utiliser "Jupyter", un framework (un ensemble d'outils informatiques rassemblés dans un logiciel ou sur une plateforme) qui permet d'analyser ses données. Pour cet exercice, j'ai utilisé les données stockées sur unemployaid.com et accessibles via mes API . Si vous voulez en trouver des montagnes, vous pouvez jeter un coup d'oeil à kaggle, une mine d'or de la "data-science".
Voici donc un exposé de mes reflexions maladroites réalysées avec Jupyter Labs. Vous pouvez accéder à la page ici.
Supervision