Ricerche

Durante i primi mesi del 2021 è partito il nuovo Osservatorio di CFMT che analizza circa 32 mila annunci per i manager del terziario pubblicati sul web in Italia. Lo studio vuole essere uno strumento sintetico periodico per l’analisi della domanda di lavoro del Web in Italia con una particolare attenzione ai manager del settore terziario.

Gli obiettivi dell’Osservatorio sono:

1.  comprendere la dinamica della domanda di lavoro - in termini di occupazioni e skill - sulle varie dimensioni di analisi, ovvero di territorio e di settore economico;

2. comparare la domanda di lavoro per le professionalità dei manager del terziario a livello internazionale : Italia, Francia, Regno Unito, Germania e Spagna;

4. confrontare la domanda di manager del terziario con quella di manager dell’industria manifatturiera;

5. stimare l’impatto delle competenze : digitali, professionali e trasversali nelle domande di manager del terziario, per fornire un dettaglio delle competenze principali richieste e la loro rilevanza.

L’Osservatorio ha prodotto tre diversi report, il documento che segue integra ed aggiorna il rapporto presentato a novembre 2021, che presentava i dati relativi al primo semestre 2021, completandoli con i dati del secondo semestre 2021. I dati relativi al 2021 sono comparati con quelli del 2020 (piena pandemia) e del 2019 (pre-pandemia), per verificare l’andamento della domanda dei manager del terziario (e del manifatturiero) attraverso gli annunci che le aziende pubblicano sul web. Infine, delle nuvole di skill offrono una visione di sintesi delle competenze richieste principalmente per i manager del terziario, in termini di skill digitali, trasversali e professionali e in termini di settore di appartenenza.

Metodologia: 

  1. Selezione delle fonti

Le fonti Web vengono individuate da esperti di dominio e selezionate sulla base di diversi criteri qualitativi: presenza di data pubblicazione annuncio e aggiornamento, presenza di campi semi-strutturati, completezza della valorizzazione dei campi, etc. L’obiettivo di questa fase è garantire la selezione di sorgenti dati affidabili per evitare il ben noto fenomeno del gargabe-in, garbage-out, che lega funzionalmente la qualità dei dati e delle analisi prodotte alla qualità dei dati in ingresso, problematica ben nota a chiunque si occupi di data quality e cleaning.

  1. Scraping, transformation and cleaning

In questa fase si collezionano i dati testuali dalle diverse fonti (scraping); i dati vengono accordati secondo un modello interno (transformation) e messi in qualità (cleaning), riconoscendo gli annunci duplicati rispetto alla riproposizione di annunci similari o vacanti.

  1. Classificazione dei dati

Si procede alla classificazione dei dati, in particolare è necessario riconoscere l’occupazione offerta da ogni singola Web Job Vacancy in accordo con una tassonomia specifica. Questo compito è svolto mediante l’uso di modelli di machine-learning opportunamente addestrati (classification e mining).

  1. Individuazione delle Skill

In questa fase è necessario individuare e quindi estrarre le informazioni contenute nella vacancy, come le skill richieste, l’indicazione geografica, e ricondurle al rispettivo standard classificatorio.

  1. Data visualization

In ultimo, si procede alla visualizzazione della conoscenza derivata dal processo gestito in accordo con le competenze dello stakeholder coinvolto (data visualization).

immagine ricerca