写在前面
笔者不是一个真正意义上的桥牌爱好者,坊间俗称桥牌小白。对桥牌攻防基本一窍不通,也不感兴趣。
本系列不涉及任何实战牌例,攻防技巧及叫牌测试。
本系列旨在以随笔形式从信息论层面对叫牌过程及叫牌体系的本质进行探索,因为完全原创并且笔者水平有限,不排除有谬误之处。
既然是随笔,也就是想到哪里写到哪里,最后把零散的点串成线继而织成面。
看完此系列,如果对您有以下方面的启发,不胜荣幸。
1.叫牌的本质与信息论的关系
2.叫牌过程的定量化
3.叫牌体系与信息论的关系及定量衡量
4.从信息论看叫牌体系
5.从信息论看竞争叫牌
6.接力叫牌的本质
7.转移叫牌的本质
8.etc.
先看一个例子
北 南
1💗 pass 4💗 all pass你坐南手持:♠ 876
💗KT987
🔸3
♣QJ54
以上持牌和叫牌进程经常发生,你或许已经熟读桥牌书,大致类似于下面的牌(为简化定义忽略各种详细约定)
开叫1H:5张h以上,12p-21p,s长度小于h长度,非15p-21p均型牌
应叫4H:5张h以上,8p以下
附加一个速达原则。
我们从另一个角度看这个叫牌过程,
从信息论来看,
这个叫牌过程的本质是什么?
信息论是怎么定量化这个叫牌过程的?
速达原则的本质是什么?
这个叫牌过程究竟合理不合理?
-
从信息论来看,北家可以看成是信源,将持牌编码成1💗后发出,经过信道(这里可以理解为无噪声),接收方南家收到1💗后,经过对照体系得到北家的持牌信息。
-
信源北家传递的这个1💗,究竟包含了多少信息量,南家接受到这个信息后结合自己的牌掌握了多少信息,这个信息如何定量化。基于这个信息做出的4💗叫牌是否合理?
话不多说,直接上香农信息量的定义公式:
I(x)= -\log_2 p(x)
I为信息量,x为北家手里持牌随机变量,等于以2为底的持牌概率取负
(具体为何以2为底,后面会仔细解释,这里可以不必细究)
北传递给南的信息量可代入计算:
\begin{align}
I(1💗)&= -\log_2 p(5张h以上,12p-21p,s长度小于h长度,非15p-21p均型牌) \\
&≈ -\log_2 0.05* \\
&≈ 4.32(bit)
\end{align}
*此结果为计算机模拟10万副发牌算出
那南得到北传送过来的4.32信息量后,结合自己的手牌,得到的两手牌的信息量为多少?
话不多说,直接上联合分布变量香农信息量公式:
\begin{align}
I(x,y)&= -\log_2 p(x,y) \\
&= -\log_2 p(x)p(y|x) \\
&= -\log_2 p(x)-\log_2p(y|x) \\
&= I(x)-\log_2p(y|x)
\end{align}
其中,y为南家持牌随机变量,x为北家随机持牌变量,p(y|x)为x下y的条件概率,I(x)已经计算得到结果为4.32
继续计算得到
\begin{align}
I(1💓,4💗)&= I(1💗)-\log_2p(4💗|1💗) \\
&≈ 4.32-\log_20.03* \\
&≈ 4.32+5.06 \\
&≈ 9.38
\end{align}
*此结果为计算机模拟1万副发牌算出
由此可知,南家掌握了两手牌总共信息量为9.38的信息做出了4💗的决定。
看到这里,也许各位看官会觉得不知所云,这些东西和桥牌有什么关系,但请稍安无燥。
本篇只是开头,只是给大家一个直观的感受。
南家掌握了9.38的信息量,叫出4💗是否合理?
信息量和各种定约的关系是什么?
信息论叫牌体系如何设计才合理?
等等,这些问题都会在以后的篇章中一一从信息论的角度给与解答,揭开桥牌叫牌的本质。
敬请期待下篇。