当前位置: 首页 > news >正文

东华复试OJ二刷复盘11

进阶11: 给定两个仅由大写字母或小写字母组成的字符串(长度介于1到10之间),它们之间的关系是以下4种情况之一:
1:两个字符串长度不等。比如 Beijing 和 Hebei
2:两个字符串不仅长度相等,而且相应位置上的字符完全一致(区分大小写),比如 Beijing 和 Beijing
3:两个字符串长度相等,相应位置上的字符仅在不区分大小写的前提下才能达到完全一致(也就是说,它并不满足情况2)。比如 beijing 和 BEIjing
4:两个字符串长度相等,但是即使是不区分大小写也不能使这两个字符串一致。比如 Beijing 和 Nanjing
编程判断输入的两个字符串之间的关系属于这四类中的哪一类,给出所属的类的编号。

#include <bits/stdc++.h> using namespace std; bool Check(string s1,string s2){ for(int i=0;i<s1.size();i++){ if(s1[i] == s2[i] || s1[i]+32 == s2[i] || s1[i] == s2[i]+32){ continue; } else return false; } return true; } int main(){ string s1,s2;cin>>s1>>s2; if(s1.size()!=s2.size()){ cout<<1; } if(s1.size()==s2.size()){ if(s1==s2){ cout<<2; } else{ if(Check(s1,s2)){ cout<<3; } else{ cout<<4; } } } system("pause"); }

The Transformer model is a neural network architecture based on the attention mechanism and has achieved great success in the field of natural language processing. Unlike traditional recurrent neural networks, Transformers do not rely on step-by-step sequence processing. Instead, they use self-attention mechanisms to process the entire sequence simultaneously. This architecture not only improves the model’s ability to perform parallel computation but also enables it to capture long-range dependencies more effectively. In machine translation tasks, the Transformer model can dynamically assign attention weights according to the relationships between different words in a sentence, thereby producing more accurate translations. In addition, Transformer architectures have been widely applied to tasks such as text generation, speech recognition, and even image processing. In recent years, most large-scale pre-trained language models have been built upon the Transformer architecture, which has significantly accelerated the development of artificial intelligence technologies.

  • Transformer 模型是基于注意力机制的神经网络架构,已经在自然语言处理领域取得了巨大成功。不同于传统的循环神经网络,Transformer 模型不依赖于逐步序列处理。相反其使用注意力机制来同时地处理整个序列。这个架构不仅提高了模型执行并行计算的能力,还使其能更高效地捕捉长距离依赖。在机器翻译任务,Transformer模型能动态地分配注意力权重根据句子中不同单词之间的关系,从而生成更准确的翻译。另外,Transformer架构已广泛应用于一些任务例如文本生成、语音识别甚至是图片处理。近些年,大多数预训练语言模型已经在Transformer架构之上来构建,这极大地加速了人工智能技术的发展。
  • recurrent neural networks 循环神经网络、 step-by-step sequence processing 逐步序列处理、long-range dependencies 长距离依赖
  • self-attention自注意力机制
  • simultaneously同时spontaneously 自发
  • parallel computation并行计算
http://www.jsqmd.com/news/497869/

相关文章:

  • 三相调速永磁同步电动机maxwell模型 1、案例采用180-8极一字型冲片 2、转速为150...
  • 别再浪费硬盘了!用MediaMTX打造自动录制+HLS点播系统,还能钩子转码!
  • EasyDSS视频流媒体WebRTC技术解析:智慧校园直播、点播与会议一体化融合实践
  • Agent 4大协议:MCP/ACP/A2A/ANP
  • 文字宽度 文字包围盒
  • 帝国CMS 7.5编辑器导入Word内容为何会丢失样式?如何修复?
  • 关于《信息系统项目管理师教程(第4版)》中“计划”概念的准确描述
  • Vue3 pinia Store 开发参考模板(部门 Store)
  • DDoS是什么?遇到后有哪些解决方法?
  • OpenClaw调教:从“能聊天”到“能干活”,我为什么建议先改这3个文件
  • 35岁转行AI大模型开发?零基础也能逆袭_三十五岁零基础转行成为AI大模型开发者怎么样呢?
  • 计算机毕业设计之springboot大学生志愿者管理系统
  • 西北AI搜索优化:亲测有效工具分享
  • 光伏运维未来趋势:智能运维系统成关键
  • Python 中的并发 —— 进程池
  • 2026 学术写作效率革命:Paperzz AI 初稿引擎,重构本科 / 硕博论文创作全链路
  • 新手也能上手 9个AI论文平台:开源免费测评,助你高效完成毕业论文与科研写作
  • 实体店流量翻身!用批量混剪软件发布带位置视频,让全城刷到你
  • 维普/知网AI率太高?分享3款降ai率工具,实测把AI率降到10%(2026最新)
  • JDBC(MySQL)——DAY05(DAO设计模式,JDBC事务处理,阿帕奇工具类)
  • Unity UI开发入门:Canvas与组件详解
  • 基于LSTM多输出回归预测模型的完整程序:MATLAB 2018b版代码及其评测分析
  • 企业内部人才选拔AI工具盘点:洞察未来,激活组织潜能
  • py列表小练习:成绩统计程序一些数据容器的小练习
  • 鸿翼OpenContent AI 高质量数据集平台,赋能企业抢占智能时代“数据高地”
  • Pytest finalizer执行顺序揭秘
  • 【量化工具推荐】2026年期货量化实盘前验证平台排名
  • 迭代器模式:优雅遍历的艺术
  • 网络安全岗位薪水多少?
  • 深度学习视觉:语义分割核心技术解析