Se il nostro computer non ce la fa

Nel manualetto “python_data_science” allegato al mio articolo “Python per la data science” del dicembre 2021 ho presentato i principali strumenti che il linguaggio di programmazione Python mette a disposizione per l’analisi di grandi masse di dati, quelli che a qualcuno piace chiamare big data.
In quel manualetto le esemplificazioni sull’uso di alcuni strumenti di machine learning sono riferite a piccoli dataset e funzionano benissimo anche su un computer di bassa potenza.
Se il data set si allarga e i dati da alcune unità diventano decine, centinaia o addirittura migliaia può accadere che i nostri computer casalinghi comincino ad arrancare o non ce la facciano proprio più e, come si suol dire, si impiantino.
Per non parlare di cosa succederebbe se ci avventurassimo nel deep learning.
Un professionista che vive di queste cose può non avere problemi ad attrezzarsi con macchine più potenti, ma un dilettante che voglia semplicemente fare qualche prova o uno studente che debba svolgere una esercitazione si possono trovare spiazzati.
Fortunatamente, se costoro lavorano con il linguaggio Python, possono trovare una soluzione al loro problema ricorrendo ad uno strumento che Google allinea tra i tanti che costituiscono la sua piattaforma di cloud computing: Google Colaboratory, altrimenti noto come Google Colab.
A Google Colab dedico l’allegato manualetto, come sempre liberamente scaricabile, stampabile e distribuibile.

google_colab