Skip to content

Latest commit

 

History

History
63 lines (40 loc) · 3.46 KB

index.md

File metadata and controls

63 lines (40 loc) · 3.46 KB

AIWiki

大模型预训练

Colossal-AI首个开源了650亿参数LLaMA低成本预训练方案。 相比业界其他主流选择,该方案可提升预训练速度38%,仅需32张A100/A800即可使用,并且不限制商业使用。https://github.com/hpcaitech/ColossalAI

AI finetune

百川大模型(baichuan-7B)微调实战 - GPT 模型微调实战指南(六)

QLoRA: Efficient Finetuning of Quantized LLMs

知识库

Chinese-LangChain

部署

闻达:一个大规模语言模型调用平台

Mosec is a high-performance and flexible model serving framework for building ML model-enabled backend and microservices. It bridges the gap between any machine learning models you just trained and the efficient online service API.

Prompt Engineering

2023.06.27 《大模型时代的科研》之2: Prompt Engineering (提示词工程)

知识图谱

开放知识图谱

模型

开源开放 | 开源知识图谱抽取工具发布大模型版DeepKE-LLM

信息提取模型

Nougat:一种用于科学文档OCR的Transformer 模型

阿里大模型信息抽取模型github

模搭地址

法律大模型

复旦大学DISC-LawLLM法律大模型

法律大模型测评LawBench

文章

NLP(十七):从 FlashAttention 到 PagedAttention, 如何进一步优化 Attention 性能

开源原驼(Guanaco)及背后的QLoRA技术,将微调65B模型的显存需求从780GB以上降低到48GB以下,效果直逼GPT-4,技术详解

深入LSTM神经网络的时间序列预测

基于机器阅读理解(MRC)的信息抽取方法

其他

NLP 百面百搭地址

LLMs 九层妖塔:

databricks AI 教程

CLUENER细粒度实体命名识别

书籍

Neural language processing with transformers