Пусть задан набор совместно распределенных дискретных случайных величин a,b,c,d,... Рассмотрим энтропийный профиль этих величин -- всевозможные наборы энтропий H(a), H(b), ... H(a,b), ..., H(a,b,c,), ... Так, для четвёрки случайных величин энтропийный профиль будет состоять из 2^4-1 = 15 неотрицательных чисел. Как описать все наборы чисел, которые являются энтропийными профилями для каких-либо распределения? Полного ответа на этот вопрос мы не знаем, хотя известны некоторые необходимые и некоторые достаточные условия. Важный класс такого рода необходимых условий формулируется на языке линейных неравенств; например, энтропия пары H(a,b) не должна превышать сумму энтропий H(a) и H(b). В докладе мы рассмотрим особый тип ограничений на возможные занчения энтропий -- условные информационные неравенства. Самое первое нетривиальное условное информационное неравенство было доказано в 1997 году Ж.Жангом и Р.В.Юнгом: если I(a:b) = I(a:b|c)=0, то I(c:d) \le I(c:d|a) + I(c:d|b). Позднее были обнаружены ещё два аналогичных неравенства (Ф.Матуш [1999], Т.Касед и А.Р. [2011]). Мы обсудим следующие два результата:
1. Три известных нетривальных условных информационных неравенства являются "существенно условными", т.е., они не могут быть получены из каких-либо (известных или ещё не открытых) безусловных неравенств.
2. Про два из этих трёх неравенств удаётся доказать, что их аналоги не выполнены для колмогоровской сложности. Этот результат контрастирует с известной теоремой об эквивалентности обычных (безусловных) неравенств для колмогоровской сложности и для энтропии Шеннона.