✖Энтропия — это мера неопределенности случайной величины. В частности, он измеряет среднее количество информации, содержащейся в каждом возможном результате случайной величины.ⓘ Энтропия [H[S]] | | | +10% -10% |
✖Максимальная энтропия определяется как состояние, согласно которому распределение вероятностей, которое лучше всего представляет текущее состояние знаний о системе, имеет наибольшую энтропию.ⓘ Максимальная энтропия [H[S]max] | | | +10% -10% |