为什么中国诞生不了 Hugging Face 这样的公司?

相信大家都用过hugging face开发的transformers库,但为什么中国无法诞生hugging face这样公司?是因为缺人才,还是因为巨…
关注者
542
被浏览
270,386

56 个回答

只说开源的话,就是纯纯粹粹的不能急,也不要指望着它能带来收入。

绝大部分时候就是用爱发电,就是想着方便自己造福别人,就是一种满足感的体现。你抱着想赚钱的心去做,肯定不行,原因就是周期太长太长太长了。这甚至和论文不同,论文好歹你发出去就结束了,开源项目是需要长期,长达数年的投入。以我自己维护的几个项目来说,从17年做到现在的四年里基本上要维持每个月一个新版本,而且需要时刻关注底层依赖的系统的更新,因为很容易造成自己系统报错。我最怕numpy 更新,毕竟对它依赖的太深了。

因此大部分知名的开源系统,要不依赖于学校实验室(教授终身教职保证了学生们进行长期更新),要不依赖大公司做底层架构(像tensorflow和pytorch这种真的不仅仅是PR,而是通过底层基建来垄断市场),以及一些零星的像我这样用爱发电的个人开发者。而个人开发者好处是容易合作,在特定的契机下容易组成一个专业的小团体对开源内容进行长期更新,而成立公司只是进一步的发展

这类项目再进一步发展,就会进入这种开源+商用的商业模式。很多类似的项目,包括我现在加入的一些项目,都会采用一套系统,两套授权。比如ABC系统,对于任何人都是免费的,它也是最好的处理XYZ任务的系统,但是你也可以通过付费给ABC系统的开发团队寻求技术支持,或者咨询服务,让他们帮你做特定的商业项目。在这种前提下,系统本身+开发团队的经验就成了商业价值,而不同的只是系统的部分开源了,这点和传统卖软件的还是有区别

其实你很难说哪种策略更好,毕竟开源系统的口碑更好、受众更广,还可以得到来自路过群众的反馈和帮助,但当然你也会流失一些本身会付费的用户。其实说到底这种开源+商业的模式是「价格歧视」的一个具体体现,你愿意自己折腾学习系统他就免费,你希望更专业的支持和服务就付费。

回到问题本身,为什么中国这类企业比较少?数量上其实我不了解,但我觉得核心问题是大部分人工智能的开源系统都是国外做的,各种方向的龙头都被人家收入囊中。如果你想要“半商业化”一个开源项目,它在那个领域至少得是排的上号的,不然谁会给你付费呢?

而因为商业模式不明晰,周期长,绝大部分企业和个人都不愿忍受长期的用爱发电且不一定最后能商业化的代价。而作为普通个人,每天工作那么长时间,更没有时间长期用爱发电,这个问题就要回到了社会工作压力大,家庭责任重的话题上,暂且不表。

因此如何解放科技工作者,让大家在工作之余有点时间做点自己感兴趣的事情,用爱发发电,赌一赌未来,大概才是这个问题的最终解答

先问是不是,再问为什么

下午刚去了 @太极图形 ,拜访刘天添 @胡渊鸣 ,中关村创业大街12号

30+团队,正式员工及实习生很多来自taichi contributor

taichi-dev/taichi 15.5k stars, huggingface/transformer 51.4k stars

考虑到graphics开源community比nlp小太多,这个star数量反映出来的项目影响力,相当可以了

库Library -> 社区Community -> 线上课程Online course

目前主要还是锚定框架本身,同时培养用户和图形学土壤,力争做成图形学基础设施(cmake ❌,import taichi as ti ⭕),有产品落地试水但应该不是目前重点

一片蓝海,完全新玩意儿,对图形仿真的学者或者开发者来说,算刚需,用上了有粘性,目前学界影响更大,但业界想象空间也不小

投资人有耐性,我甚至一度怀疑是做慈善的,毕竟烧那么多钱仅仅养一个开源社区,盈利是很难的,但红杉可能有他们独特的考虑和布局

来句暴论结尾

如果说Hugging Face对于nlp community算如虎添翼,taichi对graphics community算雪中送炭

30人左右的团队,还处在everyone knows everyone的蜜月阶段,未来肯定也会有很多挑战,不过相信办法总比困难多,祝好运!

u1s1,虽然作为从业者,我对Huggingface只有感恩,但是真要以“公司”(而非开源项目基金会)的角度来看,目前的Huggingface还没有证明自己可以成功地作为一个企业生存和发展下去。

实际上,Huggingface能成功本身就有很大的偶然性——最初的pytorch_pretrained_bert恰好赶上了两个风口:一个是预训练模型本身,另一个则是日薄西山的TensorFlow。如果BERT是Facebook的工作,从一开始就用pytorch发布预训练模型的话那很可能根本就不会有Huggingface的成功。

2022.5.10 Hugging Face(简称HF)完成了C轮1亿美元的融资,估值达到了20亿美元。关注HF也有一段时间了,以下是我的理解:

1. HF从PyTorch版本的Bert开源模型起家,之前一直想做GitHub for models。但实际呈现出来的效果基本是一个model zoo模型商店),一般情况下就是简单的模型上传分享与下载。问题在于用户很难在model上面做fork后的二次开发。如果GitHub只有一个git clone命令,那也就和古早的sourceforge分享代码没有什么区别了。

2. 现在HF开始做Spaces,可以理解为GitHub for pipelines。相比于model,pipeline确实有fork后进行二次开发的空间。不过这条路上已经有了不少的玩家,比如Google Colab,Snowflake收购的Streamlit,Databricks收购的8080 labs,以及其它一些notebook as a service的玩家。

3. HF在训练BigScience大模型(1760亿参数),对标OpenAI的GPT-3。不过前两天Meta率先开源了OPT大模型也是对标GPT-3,抢了这波风头。但我觉得这个对HF应该没有什么实际影响。HF希望通过BigScience+Spaces来提供更加完整的AI能力。如果做成了,那么会比OpenAI提供的服务更完整。

目前业界比较公认大模型的价值,对HF来说最大的不确定性是Spaces能否成功,GitHub for pipelines是否成立?要弄明白这个问题,我们需要深入思考一下GitHub究竟做对了什么。

Hugging Face技术含量并不高吧,所以不是“能不能”的问题,是“愿不愿”的问题

也许背后的原因是国内开发者不愿意参与共建这样的项目