Spis treściKliknij link, aby przejść do wybranego miejsca
Ta treść została automatycznie przetłumaczona z ukraińskiego.
Entropia - to pojęcie z teorii informacji i statystyki, które jest używane do mierzenia stopnia niepewności lub nieuporządkowania w systemie. W kontekście danych lub informacji, entropia wskazuje na to, jak duża jest różnorodność lub złożoność informacji.
Entropia prostymi słowami
Im większa entropia, tym większa niepewność lub różnorodność w danych.
Niska entropia wskazuje na to, że dane są bardziej uporządkowane lub mniej różnorodne.
Przykład entropii
Dobrym przykładem entropii może być archiwizacja plików tekstowych.Plik tekstowy, który ma 1000 linii (jednakowych) ze słowem 'tentekst' będzie miał niską entropię, a poziom kompresji pliku podczas archiwizacji będzie wysoki (jednakowe dane łatwiej uporządkować i skompresować).
Plik tekstowy, który zawiera 1000 różnych słów - ma większą entropię, a poziom kompresji będzie niższy.
Ten post nie ma jeszcze żadnych dodatków od autora.