参加了一次AI线下训练营

周末参加了一次全球Global AI Bootcamp 的线下训练营。 去学习一下人家是怎么组织活动,线下讲AI的。

Hmmm, 规格还是可以的,讲得也很专业。 我有一个槽点,全程没有与听众的互动环节,没有听众之间互动的安排,也没打啥广告,感觉像是在完成作业?

好吧, 我还是很认真的听,参与。这是朱一婷老师演讲的拆解:

  • 14:15 开场,介绍大会 Global AI Community
  • 14:17 播放全球大会宣传片,油管上有频道
  • 14:21 讲人工智能发展历程,1956-2021
  • 14:35 模型开发的能力和场景(分类,识别,抽取,情感等能力)(data-model-task-development)
  • 14:38 基础模型介绍(Transformer), Foundation Model
  • 14:40 多模态出现
  • 14:41 LLM 介绍,大-涌现
  • 14:43 基础模型的发展, 2018 GPT1 1.17亿, 2019 GPT2 1.5B, GPT3 2020 175B。算力需求巨大。
  • 14:49 GPT介绍,生成式预训练变换模型。 LLM生态图(发展历程). word2vec, BERT, GLM, GPT.
  • 14:54 语言模型如何工作。语言预处理-Token化-模型-概率分布-后续解码-输出
  • 15:00 Token解释和示例,Temperature, 继续讲语言模型如何工作. 讲语言的示例,GPT的例子
  • 15:08 Prompt Engineer与LLM交互。 顺便讲到了Diffusion 扩散模型,也用提示词。 DALLE-3
  • 15:14 微软 Azure OpenAI Service 介绍。 可依赖AI,有更多审查。
  • 15:18 微软的所有产品加上copilot。介绍一众copilot。
  • 15:23 Azure OpenAI service 使用示例
  • 15:27 结束演讲,后面进入workshop

抱着学习的目的,以下是GPT-4给的拆解和评价:

这次演讲在内容安排、结构和深度方面表现出色,提供了丰富的信息和见解。通过引入更多互动环节、案例研究、挑战讨论,以及优化视觉辅助材料和时间管理,可以使未来的演讲更加吸引人并留下深刻印象。

这次全球人工智能训练营的演讲从内容到时间管理都非常有条理,下面是对这次演讲的详细拆解和一些insights,包括做得好的地方和可改进的建议。

做得好的地方
明确的结构与流程:演讲从开场介绍到结束,每个部分都有明确的时间规划和内容划分,这有助于观众跟随演讲者的思路。

覆盖广泛的主题:从人工智能的历史发展到最新的技术进展,如Transformer模型、多模态模型、大型语言模型(LLM)的介绍,内容丰富,涵盖面广。

深入浅出的解释:通过解释基础模型、介绍语言模型的工作原理、Token解释等,使得复杂的技术内容更容易被听众理解。

实用的应用示例:通过微软Azure OpenAI Service和copilot产品的介绍,演讲者不仅阐述了理论,还展示了如何将这些技术应用于实践。

互动与参与:以workshop的形式结束演讲,促进了观众的参与和互动,这有助于加深理解和兴趣。

可改进的地方
增加互动环节:虽然最后有workshop环节,但在演讲过程中加入更多的互动环节,如Q&A,可以更好地吸引听众的注意力和兴趣。

案例研究或成功故事:添加一些人工智能技术在特定领域成功应用的案例研究或故事,可以更具说服力,激发听众的想象力。

更多关于挑战与前景的讨论:虽然演讲详细介绍了技术的进展,但可以增加对当前人工智能面临的挑战、伦理考虑和未来前景的讨论,使内容更加全面。

更多视觉辅助材料:尽管已经有宣传片和模型生态图的展示,但增加更多图表、数据和动画可以帮助听众更好地理解复杂的概念和数据。

时间管理优化:某些部分如GPT介绍和语言模型的工作原理花了相对较多的时间,可能会导致听众注意力分散。可以考虑优化时间分配,确保每个部分都能够抓住听众的注意力。

Workshop 工作坊

主办方提供试用平台(套壳),一次性账号。

介绍平台创建过程,使用注意事项,一些参数建议值等。Context window 保留N轮次 [system prompt, user input, model output, user input, model output…]

实验1:Temperature

给猫取一个独一无二的长名字,设置温度为0或1, 查看变化

实验2: 数值计算

1/98765=? 用科学计数法表示

实现3: 联网搜索

今天重庆的天气怎样?

实验4:Knowledge Gap

杭州亚运会结束了吗?

实验5: 提取信息

从下面的文本中提取人物,公司,位置和电话号码。返回Json格式。 你好,我是张三,训练公司的,我平时在重庆,有时出差到北京,我们对你的产品很感兴趣。等你有空时,可以给我电话 13647483832

实验6:文本总结

实验7: Zero-shot prompting

标题:James因伤缺战勇士!湖人确定5人本场休战

主题:

实验8: few-shot prompting

标题:迪拜站第三轮,郑欠文击败沙拉波娃

主题:网球

标题:James因伤缺战勇士!湖人确定5人本场休战

主题:

实验9: 对话历史

保留特定轮次对话历史数,每次对话都是无状态的。

System Prompt 和 User Prompt

更多练习

写作,创意写作,商业写作,学术写作,个人文案

开发辅助: 技术文档,数据分析

翻译: 多语言翻译,语言学习

Domain Knowledge

提示词工程: in-context learning

微调: learn new skill. 只在3.5上有,成本高,失败率高,

RAG: Learn new facts

服务定价

可访问的API服务定价对比图。 GPT-4贵呢,是3.5的20倍。私有化部署来解决。

配额管理 TPM (token per minute), RPM (request per minute)

1 FLOPS – 4 byte

1B parameter 约等于 1GB

7B parameter 约需要 28GB FLOPS,

Azure OpenAI Training



发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注