就单纯看计算机领域,特别是人工智能-大语言模型LLM这个细分方向,整个世界无疑就两批人在做。
一波是在中国的中国人,典型代表为全华班DeepSeek和Qwen,你去看他们的作者栏,不仅仅全都是中国人,并且DeepSeek团队的人几乎都是国内读出来的,北大的占比很大。
另一波是在美国的中国人,或者说广义点的华人,这个也很好找,比如GPT4技术报告里面的华人数量非常多,特别是Z开头姓氏的,Zhang,Zhou等等。
Gemini也一样。
就这个现…。
上一篇 : 组nas一定要TDP低的cpu吗?
下一篇 : 为什么说Kafka具有高性能?其实现过程又是怎样的呢?
1MB其实是一个很大的存储单位,那么它的存储容量究竟有多大?...
做一个中国的微软到底有多难?...
Vue性能优于React,那为什么还不用Vue?...
JetBrains 放弃 AppCode 是否是一个错误决定?...