最新官方消息!全球科创天花板赛事——国际科学与工程大奖赛(Regeneron ISEF),现已正式公布了2026年总决赛的举办时间和地点。这场汇聚全球青年创新力量的科技盛宴,将于2026年5月9日至15日,在美国亚利桑那州凤凰城会议中心(Phoenix Convention Center, Arizona)璀璨启幕。
2026ISEF赛事安排
- 参赛资格
年龄与年级:9-12年级学生(或同等学历),参赛时年龄不超过20岁。
地区选拔:必须通过附属赛(Affiliated Fair)晋级,无法直接报名。中国学生需先参加国内选拔赛(如青创赛、明天小小科学家等)。
团队项目:最多3人,所有成员需满足资格且共同参赛。
- 项目要求
原创性:项目必须由学生独立完成,允许在专家指导下进行,但不得代劳。
学科范围:涵盖21个学科类别,包括工程、生物、化学、计算机、环境科学等。
伦理限制:涉及人类、脊椎动物、病原体等研究需提前提交额外审查表(如ISEF Forms)。
- 关键文件与截止时间
ISEF表格:根据研究类型提交相应表格(如1C、2、3等),需在地区赛前完成审核。
摘要与研究论文:英文撰写,清晰描述研究目的、方法、结论。
地区赛截止:2026年3-4月
- 其他注意事项
展示材料:展板需符合ISEF尺寸要求(通常宽48英寸、深30英寸、高108英寸),禁止活体样本或危险品。
知识产权:部分研究可能需申请专利后再参赛,避免披露风险。
为了方便同学们更好的备赛,特别整理了ISEF-TECA科技艺术2025获奖作品方便学习

演奏小提琴可以提升认知功能、创造力和大脑发育。然而,由于费用高昂且资源有限,尤其是在服务欠缺的地区,获得私人课程的机会十分有限。虽然存在一些在线工具,但往往缺乏个性化反馈和实时姿势纠正,导致练习习惯不良和技术缺陷。为了应对这些挑战,我开发了一款新颖的低成本小提琴学习网络应用程序。该程序能够分析演奏,将音乐分解为波形和关键音乐元素,并根据精心设计的评分标准进行评估,从而提供个性化反馈。我还构建了一个3D地标追踪系统,用于即时评估姿势,并提供视觉和触觉反馈。首先,我设计了一个混合深度神经网络,该网络基于数千个经过清理的自录小提琴音频数据文件进行训练,并利用波形处理技术进行增强,同时通过图形分析、零填充和独热编码进行丰富。我应用短时傅里叶变换进行数学建模,通过梅尔频谱图提取音频特征,在歌曲和音符预测方面分别达到了99%和87%的准确率。接下来,我将声音分解为音高、力度、节奏、音色和时间特征等音乐元素。我使用色谱图、波形图、动态时间规整、欧氏距离、余弦相似度和代价矩阵进行比较分析。姿势纠正、练习建议和LLM总结的技术评估结果将通过电子邮件发送。最后,我将Arduino UNO与训练准确率达99%的分类模型相结合,以提升系统性能,从而实现精准的触觉纠正。该系统通过个性化练习计划、反馈和姿势纠正,弥合了可及性和课程质量之间的差距。
全球数千万人,包括闭锁综合征、晚期肌萎缩侧索硬化症(ALS)和昏迷患者,因运动麻痹而无法交流。BrainSync 引入了一种新型多模态方法,将大规模 7 特斯拉功能磁共振成像 (fMRI) 信号与高密度脑电图 (EEG) 数据相结合,利用包含 46,080 个高密度 64 通道记录的专有 EEG 数据集以及同步 fMRI 采集数据,为人类或艺术家重建自然视觉刺激。该系统采用先进的生成模型来解码纹状皮层 (V1) 和纹前皮层 (V2) 的神经活动模式。定制的扩散先验架构结合基于 CLIP 的潜在空间映射,实现了 0.682 PixCorr、0.778 SSIM 和 0.687 的动态时间相关性 (DTC) 分数重建保真度,比以往方法提高了 183.7%。其双流流程通过Transformer架构将实时脑电图(EEG,512 Hz)与高空间分辨率功能磁共振成像(fMRI,0.8mm³体素)融合,实现精确的神经对齐,同时将运营成本降低330倍(从使用EEG的100万美元降至3000美元)。BrainSync能够实时可视化内部生成的图像,将思想或视觉转化为动态艺术。通过捕捉复杂的认知过程和不同层次的意识,该系统使艺术家能够记录人类体验的流动性。双向跨模态注意力机制和对抗训练技术将现实世界表达的准确率提高了267%,使BrainSync成为一种变革性的工具,它融合了神经科学和艺术表达,重新定义了艺术构思和交流。这一突破标志着技术领域的一个关键时刻:艺术融合、医疗应用以及拓展未来探索的创造潜力。
盲文读写能力不足仍然是视障人士实现平等的一大障碍。在全球范围内,超过70%的视障人士面临就业歧视——这并非因为他们的残疾,而是因为系统性障碍限制了他们接受盲文教育的机会。教师严重短缺(仅有10%的教师可用)、教学媒体陈旧以及高昂的费用(6000美元以上)使得盲文教育难以普及。因此,全球只有不到7%的盲童入学,而能够掌握盲文读写能力的盲童更是不足10%。eiBraille推出了一款低成本的盲文显示器和人工智能学习平台,旨在弥合全球读写能力差距。第一阶段运用STEAM(科学、技术、工程、艺术和数学)原则,专注于开发一款采用专利可伸缩针机构的盲文显示器,在保持5万次循环100%触发率的同时,将生产成本降低了40倍以上,降至100美元。该系统结合了物联网集成的盲文解码算法,通过随机数据集验证,实现了96%的实时传输准确率。在第二阶段,我们增强了基于经过微调且与课程相符的LLaMA 3.1模型的AI驱动的虚拟盲文教师。在针对视障学习者的试验中,该系统实现了比传统方法快9倍的自主学习速度,将盲文掌握时间从3年缩短至6个月。一个充满活力的平台赋能家长和教师,支持孩子的进步,将每一个里程碑都转化为成长的庆祝时刻。通过在泰国开展推广和支持俱乐部活动,eiBraille扩大了STEAM(科学、技术、工程、艺术和数学)和创意学习的普及范围。eiBraille通过降低40倍的成本、提高9倍的学习速度以及增强人工智能,正在变革盲文读写能力——使所有语言的视障人士都能使用辅助技术,从而改变全球各地人们的生活,并推动构建一个包容、零歧视的社会。
手语是聋哑人士和听力障碍人士的主要沟通方式,但对于非手语人士来说,他们要么缺乏掌握手语的实际经验,要么对学习手语感到文化上的自满,因为手语在生活中的应用有限。这给聋哑人士带来了挑战,迫使他们依赖工具并做出牺牲来适应普通人群。随着远程办公的兴起以及人工智能在教育和各个领域的日益普及,我们可以利用技术进步,特别是计算机视觉领域的进步,为聋哑人士消除沟通障碍。为了实现实际应用,系统必须能够实时运行且无明显延迟。本项目旨在构建一个实时、可扩展的美国手语 (ASL) 识别系统,该系统能够以超过 30 FPS 的速度识别和翻译大词汇量手语单词和句子级别的手语。该系统集成了 MediaPipe 的手势关键点追踪技术、混合静态-动态融合方法以及 MobileViT 等轻量级 Transformer 架构,利用多尺度注意力机制计算静态空间特征和时间动态特征,从而确保高精度和低延迟。该系统的主要功能包括手语到文本/语音的转换、手动(手势)和非手动(面部表情、身体姿势)标记的多模态融合,以及通过文本显示或语音合成提供的实时反馈。这些功能弥合了手语使用者和非手语使用者之间的差距,不仅增强了聋人和听力障碍群体的可及性和包容性,也为未来辅助技术融入日常交流奠定了基础。
OpenAI 的 ChatGPT 模糊了人类与 AI 撰写的文本之间的界限,对学术界验证作者身份的能力提出了挑战。现有的 AI 检测系统无法识别改写的内容或模仿的写作风格,并且会错误地对人类作品进行分类。随着我们不断优化以达到拟人化写作的效果,检测生成的文本已变得越来越遥不可及。\n\n我假设,专注于验证个人作者身份的文体计量学方法会更有效。这项研究经历了两次迭代:BTYSTE 的初始版本(2024 年 1 月)和 EUCYS 的增强系统(2024 年 9 月)。\n\nVerifyMe 分析的是写作风格,而不是“检测 AI”。该系统通过测量作者写作的 112 个不同方面来捕捉作者独特的“风格指纹”,从而创建一个简洁的风格数字表示。当提交新的文本时,VerifyMe 会创建相同的风格指纹,并使用基于 Transformer 编码器的 Siamese 神经网络将其与给定作者的个人资料进行比较。该系统基于 BAWE 和经过筛选的古腾堡计划样本(共计 2,034 位作者)的联合语料库进行训练。\n\n在对未见过的作者进行测试时,VerifyMe 在 BAWE 和古腾堡计划样本之间的人机验证中分别达到了 85% 和 92% 的准确率。在 GPT-4o 的模仿尝试中,传统检测器的准确率仅为 0-2%,而 VerifyMe 则保持了 96% 的准确率。该系统的性能比商用 AI 检测器高出 1.89 倍至 17.84 倍。BAWE 样本的马修斯相关系数达到 0.776,古腾堡样本的马修斯相关系数达到 0.829,ROC 曲线下面积分别为 0.956 和 0.972。这些结果表明,在后 ChatGPT 时代,专注于验证作者而非检测 AI,可以为作者身份验证提供更可靠的解决方案。
现代科技的应用对于保护和振兴侗族民歌(Don ca tai tu)至关重要。侗族民歌是联合国教科文组织认定的人类非物质文化遗产,其影响力正日益被当代音乐流派的兴起所掩盖。然而,目前的努力主要局限于有限的受众,而年轻一代对这种传统艺术形式大多缺乏兴趣。为了应对这一挑战,我们开发了一个用于自动音乐生成的深度学习框架,使用户能够使用自然语言提示创作融入侗族民歌风格精髓的音乐作品。我们精心策划了一个专门的数据集,收集了来自多个在线来源、经验丰富的音乐家和文化专家的录音。这些数据经过精心筛选和处理,以确保训练集的纯净和高质量。此外,我们还推出了DcttGen,这是一个统一的框架,可以根据文本输入生成高保真、长篇的乐曲。它通过以下方式实现这一目标:(1) 使用音乐标记器从原始音频波形中高效提取基本音乐特征,(2) 使用自回归变换器保持所生成音乐的长期结构一致性,以及 (3) 使用整流流变换器从低采样率表示合成高保真音频输出。此外,我们重新设计了针对 Don ca tai tu 音乐的 Chain-of-Thought 提示技术,增强了所得作品的连贯性和创造性。通过这种组合,与其他基线相比,DcttGen 可以创作出高质量、结构良好的音乐作品。实验结果表明,DcttGen 在各种客观指标上都赶上甚至超过了最近的方法。通过这项工作,我们引入了一种新颖的人工智能驱动方法来保护和振兴 Don ca tai tu。
ISEF历年获奖作品集&解析&资料免费下载⬇️

相关文章:
国际科学与工程大奖赛 ISEF(STEM),科创竞赛天花板!有何含金量?该如何参赛?
ISEF 英特尔国际科学与工程大奖赛:申请美国大学最有价值的竞赛之一
科创天花板!ISEF竞赛参与方式/晋级途径/学科设置/奖项设置一文讲清
科创天花板——2025 ISEF竞赛新改革变化!附带竞赛全面介绍
ISEF国际科学与工程大赛有哪些科目?为什么推荐ISEF竞赛?
国际高中生偏爱的ISEF到底是什么?一文详解ISEF比赛内容/适合学生/晋级路径/含金量
如何找到ISEF的导师或实验室资源?
中国学生参加ISEF需要通过哪些国内赛事(如青创赛)晋级?ISEF获奖率高吗?
中学生英才计划与ISEF:探索青少年科技创

