Teoria dell'Informazione 1. Aspetti qualitativi e quantitativi dell'Informazione. Rapporti con nozioni affini e problemi di definizione formale. 2. Centralita' della teoria dell'Informazione: dalla teoria di Shannon agli sviluppi recenti. Rapporti con altre teorie centrali dell'Informatica. 3. Simboli e stringhe: modelli matematici e fisici di stringhe. 4. Codici numerici, alfanumerici e biologici. 5. Codici univoci ed istantanei. Teoremi di Kraft e McMillan. 6. Misure informazionali, misura digitale e informazione intrinseca. 7. Entropia di una sorgente informativa. 8. Entropia congiunta, relativa e condizionale. Mutua informazione. 9. Primo teorema di Shannon. 10. Codifiche di Huffman, Shannon, Fano, Elias e codifiche Arithmetic. 11. Teorema di Huffman. 12. Entropia di sorgenti stocastiche. 13. Sorgenti markoviane ed entropie linguistiche. 14. Entropia fisica ed entropia informazionale. 15. Canali discreti con rumore. Secondo teorema di Shannon. 16. Canali continui. 17. Teorema di Nyquist-Hartley-Shannon. 18. Codici autocorrettori. 19. Algoritmi di compressione LZ e BW. 20. Digitalizzazione e Compressione. 21. Complessita' algoritmica e calcolabilita'. 22. Casualita' ed eleganza. Teorema di Chaitin. 23. Principi informazionali dei meccanismi crittografici. 24. Da Enigma alla crittografia quantistica. 25. Meccanismi informazionali in sistemi complessi. 26. Spazi informazionali ed NP completezza. 27. Strutturazione e livelli informazionali. 28. Meccanismi informmazionali in sistemi complessi.