https://mp.weixin.qq.com/s/mrdIymI2okafun77SdSh6g
目前,Transformers库在GitHub上已有62.3k个Star,Fork数量达到了1.48k。

Transformers 为数以千计的预训练模型奠定了基础(包括我们熟知的Bert、GPT、GPT-2、XLM等),支持100多种语言的文本分类、信息抽取、问答、摘要、翻译、文本生成。它的宗旨就是让最先进的 NLP 技术人人易用。Transformer还提供了便于快速下载和使用的API,让你可以把预训练模型用于给定文本上,在自己的数据集上对它们进行微调,然后通过modle hub与社区共享它们。此外,Transformer由三个最热门的深度学习库——Jax、PyTorch和TensorFlow支持,它们之间可以无缝整合。
Hugging Face的愿景是构建机器学习领域的GitHub。它是一个社区驱动型的平台,拥有大量的资源。开发人员可以在机器学习模型、数据集和 ML 应用程序上不断创建、创新和互相协作。
Hugging Face 还提供托管服务,允许你通过编程接口使用数千个模型的推理API,以及“自动训练”模型的能力。
为人工智能领域按下快进键
现在,已有超过1万家公司正在使用该公司的服务来建立机器学习技术。这些公司的机器学习科学家、数据科学家和机器学习工程师在Hugging Face的产品和服务的帮助下,节省了无数时间,同时加快了他们的机器学习进程。
Hugging Face团队表示,本轮融资将用于人工智能的科研、开源、产品和以及人工智能民主化方面。他们相信,未来的人工智能的方向是通过公开分享模型、数据集、训练程序、评估指标和合作解决问题。开源和开放科学会带来信任,促进社区的稳健发展和持续创新,而未来的人工智能也一定是建立在这个基础之上的。
如何使用,网上也能找到教程:
https://blog.csdn.net/sinat_28931055/article/details/119560054
流媒体网CSDN;
https://www.csdn.net/?spm=1001.2014.3001.4476
https://blog.csdn.net/OneFlow_Official/article/details/129577447
标签: