Salta al contenuto principale

Online Job Vacancy per i manager del terziario

Durante i primi mesi del 2021 è partito il nuovo Osservatorio di CFMT che analizza circa 32 mila annunci per i manager del terziario pubblicati sul web in Italia. Lo studio vuole essere uno strumento sintetico periodico per l’analisi della domanda di lavoro del Web in Italia con una particolare attenzione ai manager del settore terziario.

Gli obiettivi dell’Osservatorio sono:

1.     comprendere la dinamica della domanda di lavoro - in termini di occupazioni e skill - sulle varie dimensioni di analisi, ovvero di territorio e di settore economico;

2.   comparare la domanda di lavoro per le professionalità dei manager del terziario a livello internazionale : Italia, Francia, Regno Unito, Germania e Spagna;

4. confrontare la domanda di manager del terziario con quella di manager dell’industria manifatturiera;

5. stimare l’impatto delle competenze : digitali, professionali e trasversali nelle domande di manager del terziario, per fornire un dettaglio delle competenze principali richieste e la loro rilevanza.

 

L’Osservatorio produrrà  tre diversi report con le seguenti tempistiche: marzo 2020, agosto 2020  e marzo 2021, la metodologia impiegata è stata consolidata ed applicata in diversi contesti, nonché pubblicata in alcuni lavori a carattere scientifico. In sintesi, l’approccio consiste nei seguenti passi:

 

  1. Selezione delle fonti

Le fonti Web vengono individuate da esperti di dominio e selezionate sulla base di diversi criteri qualitativi: presenza di data pubblicazione annuncio e aggiornamento, presenza di campi semi-strutturati, completezza della valorizzazione dei campi, etc. L’obiettivo di questa fase è garantire la selezione di sorgenti dati affidabili per evitare il ben noto fenomeno del gargabe-in, garbage-out, che lega funzionalmente la qualità dei dati e delle analisi prodotte alla qualità dei dati in ingresso, problematica ben nota a chiunque si occupi di data quality e cleaning.

 

  1. Scraping, transformation and cleaning

In questa fase si collezionano i dati testuali dalle diverse fonti (scraping); i dati vengono accordati secondo un modello interno (transformation) e messi in qualità (cleaning), riconoscendo gli annunci duplicati rispetto alla riproposizione di annunci similari o vacanti.

 

  1. Classificazione dei dati

Si procede alla classificazione dei dati, in particolare è necessario riconoscere l’occupazione offerta da ogni singola Web Job Vacancy in accordo con una tassonomia specifica. Questo compito è svolto mediante l’uso di modelli di machine-learning opportunamente addestrati (classification e mining).

 

  1. Individuazione delle Skill

In questa fase è necessario individuare e quindi estrarre le informazioni contenute nella vacancy, come le skill richieste, l’indicazione geografica, e ricondurle al rispettivo standard classificatorio.

 

  1. Data visualization

In ultimo, si procede alla visualizzazione della conoscenza derivata dal processo gestito in accordo con le competenze dello stakeholder coinvolto (data visualization).

 

v