本部要闻 来源:中译语通日期:2024-09-24浏览次数:150
2024年9月20日至22日,全国知识图谱与语义计算大会和知识图谱国际联合会议(CCKS-IJCKG2024)在重庆市召开。中译语通科技股份有限公司(简称“中译语通”)作为大会战略合作伙伴,向与会嘉宾展示了公司“格物”大模型和知识图谱产品JoveMind融合发展最新技术和实践应用成果。在语言与知识计算专委会2024年度工作会议上中译语通2030人工智能研究院副院长陈自岩博士成功当选为专委会委员。
本届大会的主题是“知识图谱与大模型”,旨在探讨这两个前沿领域的交叉点以及相互融合的创新机遇,探索知识图谱在跨模态、跨领域等AI任务中的作用和应用途径,研究知识表示、知识存储、知识挖掘、知识融合、知识推理、可解释性、伦理等知识图谱关键技术在大模型时代背景下的发展趋势,引导知识图谱相关技术的变革,为通用人工智能的最终实现奠定基础。大会议程包括讲习班、大会特邀报告、前沿趋势论坛、工业界论坛、青年学者论坛、评测与竞赛、论文报告、海报与系统展示等环节,邀请国内外知名学者介绍相关领域的最新进展和发展趋势,邀请产业界知名研发人员分享实战经验,促进产学研合作。
在9月20日举办的语言与知识计算专委会2024年度工作会议上,经过委员投票表决,中译语通2030人工智能研究院副院长陈自岩博士成功当选为专委会委员。
会议期间,中译语通现场展示了“格物”大模型和知识图谱产品JoveMind融合发展最新技术和实践应用成果。“格物”大模型是中译语通于2022年11月发布的大模型体系,包括了多语言预训练模型、多语言机器翻译超大模型、多模态预训练模型和多语言生成式对话大模型等。近期,依托北京市“中央引导地方”人工智能专项,中译语通创新性研发了多模态统一大模型架构,支持文本、文档、图像、音频和视频等常见全数据模态。目前已有十亿参数量的轻量版、百亿参数量的基础版和千亿参数量的加强版三个版本,支持云服务、离线部署、手机终端化等多种应用场景。当前格物大模型不仅具备全能的文本理解生成能力,还在诸多任务上实现了新的突破,如机器翻译上,实现了81个语种之间互译,相较于Meta发布的NLLB模型,以其1/3的参数量规模将平均BLEU值提升超过27%;语音方向上支持多达上千个语种的男女声合成,在某些重点语种方向实现了稀缺语料的高保真声纹克隆;多模态理解交互能力超过OpenAI的GPT4v、谷歌的Gemini 1.0 Pro等模型;在图像、视频生成方面可以进行端到端高清生成。“格物”大模型技术入选2022大规模预训练模型优秀应用案例、2023年智赋百业典型案例。
依托中译语通“格物”大模型和知识图谱能力,公司以国家战略需求为导向,将国防军事、国家安全、意识形态安全作为建设国家战略科技力量的核心方向,发展形成了“应龙”防务安全、“致知”企业智能决策、“格物”人工智能大模型、“银河”全球战略数据四大平台,已成为客户在复杂场景下进行智能决策的关键基础设施。公司不仅拥有强大的数据资源优势和自主研发技术实力,还通过创新产业应用与服务管理能力,在多个垂直领域构建了领先的分析及决策中台,助力组织实现跨域协同和智能化决策。