Мне было интересно, представляет ли что-то конкретное значение, обратное P (X = 1)?
probability
А. Флеминг
источник
источник
Ответы:
Да, она обеспечивает 1-in шкалу вероятностей. Например, обратное значение .01 равно 100, поэтому событие с вероятностью 0,01 имеет вероятность 1 к 100. Это полезный способ для представления малых вероятностей, таких как .0023, что составляет примерно 1 из 435.n
источник
Таким образом, начиная с , событие, имеющее шанс на миллион происшествий, передает вам только около 20 битов информации, что намного меньше, чем необходимо для передачи «новичков». выиграть!" в ASCII! :-)220≈106 1
источник
В случае геометрического распределения, обратная представляет ожидаемое количество бросков, которое вам нужно сделать, чтобы увидеть один успех. Например, если монета имеет вероятность приземления на головы, то вам нужно бросить ее около 5 раз, чтобы увидеть одну голову.1/p 0.2
источник
То, что иногда называют европейскими или десятичными, если справедливо, является обратной величиной вероятности выигрыша, которая может быть случайной величиной Бернулли .P(X=1)
Например, если котируемые коэффициенты равны «1,25», и вы делаете ставку вы получаете случае выигрыша (включая исходную ставку, таким образом, выигрыш в ) и ничего не возвращаются в случае проигрыша. Это было бы справедливой ставкой, если бы вероятность выигрыша была , которая имеет обратную .8 8×1.25=10 2 810=0.8 10.8=1.25
Точно так же, если котируемые шансы равны "5,00", и вы делаете ставку вы получаете случае выигрыша (включая исходную ставку, таким образом, выигрыш в ) и ничего не возвращаются в случае проигрыша. Это было бы справедливой ставкой, если бы вероятность выигрыша была , которая имеет обратную .8 8×5=40 32 840=0.2 10.2=5.00
источник
В контексте плана обследования обратная вероятность включения в выборку называется весом выборки .
Например, в репрезентативной выборке некоторого населения респондент с весом 100 имеет 1/100 шансов быть включенным в выборку, другими словами, этот респондент представляет 100 похожих людей в популяции.
источник
В статистической механике система имеет большое количество микросостояний, и фундаментальным принципом является то, что все они предполагаются одинаково вероятными . Таким образом, обратной величиной вероятности конкретного микросостояния является число возможных микросостояний, и это имеет название в физике; это (смутно) называется термодинамической вероятностью .
Логом термодинамической вероятности является энтропия системы, вплоть до постоянной.
источник