背景资料:从数字看诺贝尔物理学奖
By 苏剑林 | 2009-10-07 | 15807位读者 | 引用2009年诺贝尔物理学奖于6日公布,英国华裔科学家高锟以及美国科学家威拉德·博伊尔和乔治·史密斯摘得桂冠。以下是关于诺贝尔物理学奖的一些数字:
1、诺贝尔物理学奖从1901年开始颁奖,但并非年年颁奖,1916年、1931年、1934年、1940年、1941年和1942年都没有颁奖。之所以这6年没颁奖,是因为第一次世界大战和第二次世界大战的发生,或因为没有人符合获得诺贝尔奖的那些条件。
2、到今年为止,一名科学家独享诺贝尔物理学奖有47次,而两名科学家和三名科学家分享诺贝尔物理学奖的次数相同,都是28次。按诺贝尔基金会的规定,不会有3人以上同时获得一个奖项。
限于Blog的限制,想记录一下平时的心情和感悟,就去开通了一下新浪的“微博”。
用以前注册的bojone@sina.cn开通的,我的地址为:
http://t.sina.com.cn/bojone
欢迎大家也来注册交流,成为科学空间的Fans:
http://t.sina.com.cn/
两名美国经济学家同获2009年诺贝尔经济学奖
By 苏剑林 | 2009-10-13 | 17662位读者 | 引用科学空间相册上线,与你分享科学图片
By 苏剑林 | 2009-11-14 | 16747位读者 | 引用新词发现的信息熵方法与实现
By 苏剑林 | 2015-10-26 | 115375位读者 | 引用在本博客的前面文章中,已经简单提到过中文文本处理与挖掘的问题了,中文数据挖掘与英语同类问题中最大的差别是,中文没有空格,如果要较好地完成语言任务,首先得分词。目前流行的分词方法都是基于词库的,然而重要的问题就来了:词库哪里来?人工可以把一些常用的词语收集到词库中,然而这却应付不了层出不穷的新词,尤其是网络新词等——而这往往是语言任务的关键地方。因此,中文语言处理很核心的一个任务就是完善新词发现算法。
新词发现说的就是不加入任何先验素材,直接从大规模的语料库中,自动发现可能成词的语言片段。前两天我去小虾的公司膜拜,并且试着加入了他们的一个开发项目中,主要任务就是网络文章处理。因此,补习了一下新词发现的算法知识,参考了Matrix67.com的文章《互联网时代的社会语言学:基于SNS的文本数据挖掘》,尤其是里边的信息熵思想,并且根据他的思路,用Python写了个简单的脚本。
精确自由落体运动定律的讨论(二)
By 苏剑林 | 2010-01-09 | 58501位读者 | 引用之前在这篇文章中,我们使用过一个牛顿引力场中的自由落体公式:
$t=\sqrt{\frac{r_0}{2GM}}{r_0 \cdot arctg \sqrt{\frac{r_0 -r}{r}}+\sqrt{r(r_0 -r)}}$——(1)
我们来尝试一下推导出这个公式来。同时,站长在逐渐深入研究的过程中,发现微分方程极其重要。以前一些我认为不可能解决的问题,都用微分方程逐渐解决了。在以后的文章里,我们将会继续体验到微分方程的伟大魔力!因此,建议各位有志研究物理学的朋友,一定要掌握微分方程,更加深入的,需要用到偏微分方程!
首先,质量为m的物理在距离地心r处的引力为$\frac{GMm}{r^2}$,根据牛顿第二定律F=ma,自然下落的物体所获得的加速度为$\frac{GM}{r^2}$。假设物体从距离地心r开始向地心自由下落,求位移s关于t的函数s=s(t).
最近评论