Энтропия – в широком смысле слова это мера сложности, хаотичности или неопределенности системы: чем меньше элементы системы подчинены какому-либо порядку, тем выше энтропия.