这个1973年出生县委书记梁展凡非常优秀[good]明确要求每个政协委员至少要装

如波谈世界 2025-02-20 11:14:57

这个1973年出生县委书记梁展凡非常优秀[good]明确要求每个政协委员至少要装两个人工智能软件,必须的!第一个DeepSeek,你必须要会用;第二是豆包,因为豆包的基础比较好。

睿智中年:广西宾阳县委书记梁展凡:每个人都要学会使用AI!

1️⃣是deep seek

2️⃣是豆包,基础比较好,

近期在县政协会议上明确提出要求,所有参会人员必须掌握人工智能工具的使用,尤其是国产大模型DeepSeek和豆包。

梁展凡的履历与技术倾向:

他是管理学博士和持有注册安全工程师,梁展凡曾主导交通基建与灾害应对!

他的技术背景可能促使他更重视AI在治理中的应用。例如,他曾在2024年5月实地检查高速公路塌方灾情,这种实践经验或强化其对技术辅助决策的认可!

这一要求不仅是地方数字化转型的具体举措,更反映了基层政府应对技术变革的战略考量

县委书记提出“每个人都要学会使用AI”,主要出于以下几方面考虑:

提升工作效率

• 信息处理与分析:AI能快速处理和分析海量数据,如经济数据、人口数据等,为决策提供准确依据,节省人力筛选和分析时间。

• 文案撰写与处理:可以协助撰写公文、报告、方案等,提供创意和思路,还能进行语法检查和格式调整,提高文案工作效率。

• 流程优化:自动化完成一些繁琐、重复的工作流程,如政务审批流程中的部分环节,减少人工操作,提高整体工作效率。

优化公共服务

• 精准化服务:通过分析居民需求和行为数据,AI能帮助政府提供更精准的公共服务,如根据人口分布和需求热点合理规划教育、医疗资源布局。

• 智能化服务:智能客服、智能导办等AI应用可在政务服务大厅、线上平台等为民众提供24小时服务,及时解答问题、办理业务,提升民众办事体验。

推动经济发展

• 产业升级:助力传统产业进行技术改造和创新,如在制造业中实现智能生产、质量检测,在农业中进行精准种植、病虫害监测,提高产业竞争力。

• 招商引资:了解AI产业发展趋势和前沿技术,便于在招商引资中精准对接AI企业和项目,吸引相关产业落地,培育新的经济增长点。

提升干部能力与素质

• 适应时代发展:AI是未来发展趋势,干部学会使用AI,能紧跟时代步伐,提升自身综合素质,更好地履行职责。

• 培养创新思维:接触和使用AI可激发干部的创新思维,促使他们在工作中探索新方法、新模式,提高解决问题的能力。

提升社会治理水平

• 风险预警与防范:利用AI的数据分析和预测能力,对社会稳定、安全生产、环境污染等风险进行实时监测和预警,提前采取措施,防患于未然。

• 辅助决策支持:在制定政策、规划项目时,AI能提供多角度的分析和预测,为县委书记等领导干部提供科学的决策参考,使决策更具科学性、合理性。

澎湃: DeepSeek最新技术论文梁文锋是共创之一 【 杨植麟梁文锋论文撞题 ,“注意力机制”对大模型意味着什么】2月18日,在大洋彼岸的马斯克秀出最新大模型Grok 3当天,国产AI公司深度求索(DeepSeek)最新一篇论文引发关注,创始人梁文锋在署名之列,并2月16日提交到预印本平台arxiv。这篇论文的核心关于NSA(Natively Sparse Attention,原生稀疏注意力)。据DeepSeek,上下文建模对于下一代语言模型至关重要,但标准注意力机制的高计算成本带来了巨大的计算挑战。NSA(稀疏注意力)在提高效率同时,为提高模型能力提供新的方向,实现将算法创新与硬件对齐的优化相结合,进行高效的长上下文建模。

“此次DeepSeek发布的论文,可以称为基石更新。”业内人士向澎湃新闻记者评论,此前的DeepSeek-R1的瓶颈在于输入上下文能力方面相对不足,此次更新正是解决了原先大模型文字处理的问题。从内容来看,NSA主要针对长上下文高速训练,在长上下文情况下,相比原先的结构有更慢的性能衰减,这导致长思维链的 COT 效果会更好,对于复杂数学推导非常有价值。

值得注意的是,此次论文作者中,梁文锋在作者排名中位列倒数第二。而第一作者是袁景阳(Jingyang Yuan)。据公开信息,袁景阳目前是北京大学硕士研究生,研究领域包括LLM和AI for Science,目前是DeepSeek的实习生,据袁景阳个人主页,他在去年参与7篇论文的撰写。

2月18日,就在DeepSeek论文发布当天,月之暗面创始人杨植麟也带领团队发布最新论文《MoBA: MIXTURE OF BLOCK ATTENTION FOR LONG-CONTEXT LLMS(直译为“MoBA:面向长上下文大语言模型的块注意力混合方法”)》,提出了与NSA类似的稀疏注意力框架MoBA,并设计了一套可以自由切换全注意力和稀疏注意力机制的方式,为已有的全注意力模型更多的适配空间。

据介绍,MoBA是“一种将混合专家(MoE)原理应用于注意力机制的创新方法”,旨在提高长文本处理效率。经过Kimi平台验证,MoBA架构能将处理1M长文本的速度提升6.5倍,将处理10M长文本的速度提升16倍。

Kimi团队表示,开展这项研究的原因在于,在传统注意力机制中,计算复杂度随着序列长度的增加而呈平方级增长,阻碍了模型对长序列的高效处理。MoBA架构能够轻松融入现有模型,不需要高昂的训练成本,并实现与全注意力模式的无缝切换。

0 阅读:0
如波谈世界

如波谈世界

感谢大家的关注