news 2026/2/24 12:01:57

惊!中科院1区Top权威顶刊降为2区

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
惊!中科院1区Top权威顶刊降为2区

🔥 🔥 🔥 🔥

《Computers & Industrial Engineering》创刊于1976年,是工业工程与计算机科学交叉领域中历史悠久、享有盛誉的国际顶尖期刊,以其扎实的学术质量和明确的应用导向著称。

它不仅见证了该学科从传统方法向数字化、智能化的深刻转型,也持续推动着相关理论与应用的发展。然而,在今年中科院分区中,其却从1区Top期刊突降至2区,这一显著变动已引发学术界的广泛关注。

期刊简介

【ISSN & E-ISSN】0360-8352

【期刊简介】IF:6.5 JCR1区 中科院2区-TOP

【出版商】Elsevier

【Index】SCIE&EI

【征稿范围】是一本专注于计算机技术在工业工程领域应用的学术期刊,旨在为相关领域的研究者、教育者和实践者提供交流平台。其征稿范围包括:开发新的计算机化方法以解决工业工程问题,评估计算机在工业工程教育中的使用,以及报道将工业工程技术应用于实际问题的原创性研究。

1 影响因子

期刊影响因子整体处于上涨趋势,2022-2023年达到峰值7.9,最近两年开始小幅下滑,目前最新影响因子为6.5

图片来源:LetPub

2 年发文量

期刊于1976年被数据库检索,近几年期刊发展逐渐趋于稳定,年发文量基本在700-800篇上下波动

图片来源:WOS数据库

3 国人占比

在文章来源中,中国学者遥遥领先,一共发文4495篇,其次是美国学者,发文3336篇,伊朗作者发文757篇,位居第三。

图片来源:WOS数据库

4 自引率

期刊自引率持续下降,最新自引率为10.8%,在安全范围内。

图片来源:LetPub

5 期刊分区

● JCR分区:1区

● 中科院分区:工程技术1区→2区-TOP

● 预警记录:

图片来源:LetPub

6 版面费

期刊为混合OA期刊,作者发表文章可选择无版面费模式。

图片来源:期刊官网

7 录用周期

期刊官网显示:初审仅需5天,投稿到录用大概7个月左右

图片来源:期刊官网

官网案例一:2025.07.08投稿→2025.10.01录用

3个月录用

官网案例二:2025.02.13投稿→2025.10.11录用

8个月录用

8 作者评价

【作者1】3个月录用

25-8-28 submitted
25-9-6 UR
25-11-8 major revision (3个意见)
25-11-27 resubmitted
25-11-28 UR
25-12-9 accepted (2人审稿,1人尚未接受审稿)
总体来说这次投稿体验很好,审稿人很认真,给了26条意见,其中20条左右是关于模型的并告诉了怎么修改,点对点的回复,回复信45页,额外加上了19页的补充文件,比较幸运,一次审稿就接收了。

【作者2】3个月录用

25.02.14 submit
25.02.26 under review 送了8份,2人接受审稿
25.04.14 revise 一共11条意见,给了一个月修改时间
25.04.28 submit
25.05.29 accpet
这篇论文经过ijpe两次外审被拒,终于被cie收留了,不过这么顺利多少带点运气成分。希望cie越来越好,明年重回一区!

【作者3】8个月被拒

外审8个月,一个小修、一个大修、一个拒稿,然后就拒稿

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/2/20 0:58:39

【Open-AutoGLM GPU加速适配全攻略】:手把手教你7步完成高性能推理优化

第一章:Open-AutoGLM GPU加速适配概述Open-AutoGLM 是一个面向自动化自然语言处理任务的开源框架,支持多种大语言模型的快速部署与推理优化。在高性能计算场景中,GPU 加速成为提升模型推理效率的关键手段。通过适配主流 GPU 架构(…

作者头像 李华
网站建设 2026/2/20 5:35:08

Open-AutoGLM特征提取提速5倍:背后你不知道的3大关键技术

第一章:Open-AutoGLM特征提取效率跃升的背后近年来,Open-AutoGLM在多模态任务中展现出卓越的特征提取能力,其效率提升并非偶然,而是源于架构设计与优化策略的深度协同。动态稀疏注意力机制 传统Transformer结构在处理长序列时面临…

作者头像 李华
网站建设 2026/2/24 9:19:08

[特殊字符]工业标准文档“消化不良“?LLM+知识图谱三步翻倍表格任务F1,钢铁直男秒变逻辑大师!

本文提出Ontology-aware KG-RAG框架,通过分层本体建模、原子命题建模和图谱精炼三步,将复杂工业标准文档转化为可推理知识图谱。该方案解决了传统RAG在处理嵌套结构、表格关系和数值单位时的信息破碎问题,在IndusSpec-QA基准测试中F1分数达0.…

作者头像 李华
网站建设 2026/2/23 10:07:40

RAG技术揭秘:如何通过检索增强生成解决大模型知识过时与幻觉问题?

简介 RAG技术通过检索增强生成解决大模型的两大痛点:知识过时和幻觉问题。它将大模型的生成能力与外部知识库结合,工作流程包括文档预处理、嵌入存储、查询处理、相关文档检索和生成回答。核心技术包括文档拆分、嵌入模型、混合检索策略和生成对齐&…

作者头像 李华
网站建设 2026/2/24 8:46:04

【国产大模型端侧落地新突破】:Open-AutoGLM推理效率提升实战

第一章:Open-AutoGLM端侧推理速度提升的背景与意义随着大模型在自然语言处理领域的广泛应用,如何在资源受限的终端设备上实现高效推理成为关键挑战。Open-AutoGLM 作为一款面向端侧部署的轻量化语言模型,其推理速度直接影响用户体验与应用场景…

作者头像 李华
网站建设 2026/2/23 12:27:44

Open-AutoGLM端侧部署性能调优,手把手教你榨干NPU算力

第一章:Open-AutoGLM端侧推理性能优化概述 随着边缘计算与终端智能的快速发展,大语言模型在端侧设备上的高效推理成为关键技术挑战。Open-AutoGLM 作为面向终端设备优化的自研推理框架,致力于在资源受限环境下实现低延迟、高吞吐的语言生成能…

作者头像 李华