高教视点

当前位置: 首页 > 高教视点 > 正文

专家论坛:大学名次该怎么排

来源:   时间:2003-06-13  浏览:

——把科学道德列入大学评价体系,是不是会将大学评价变成人人自危的东西?

自1987年中国管理科学研究院发布第一个大学排名开始,16年来,每当出现一个大学排名,总是伴随着对名次不满的反对声,那么———

有没有基本肯定《中国大学评价》的学术文章

《误区》作者称:“据笔者对学术界的了解,至今笔者没有看到一篇基本肯定武氏评价的学术评论文章。”

笔者不知道顾海兵教授平时是用什么方法查阅文献的。《中国大学评价》自1997年开始按年度在《科学学与科学技术管理》杂志发表,其后有不少同行专家发表过不同的评论,但要说其中没有一篇是基本肯定的,显然背离事实。笔者依时间顺序列举几篇持基本肯定态度的文章:

刘纯朝《从〈中国大学评价〉谈大学的研究与发展》科学学与科学技术管理1999.8

刘纯朝《〈中国大学评价〉的利弊分析及对策探讨》科学学与科学技术管理2000.3

蔡言厚兰云李卫《完善〈中国大学评价〉的若干建议》中国高等教育评估2000.3

蒋石梅战英民刘新福宋敏茹《〈中国大学评价〉对大学发展的导向和促进作用-兼评〈中国大学评价———1998〉》科学学与科学技术管理2000.10

邵传芳《科研绩效指标排名对高校的影响及有待改进之处》科学学与科学技术管理,2001.10

裴云《大学排行中文理科的权重及其导向性问题》中国高等教育评估2002.3

蔡言厚刘芳周炼《进一步完善〈中国大学评价〉的若干建议》中国高等教育评估2002.4

蒋石梅曾珍香战英民刘新福《〈中国大学评价〉六年改进述评》科学学与科学技术管理,2003.4

上述作者分别来自江汉石油学院、中南大学、河北工业大学、上海交通大学、厦门大学等校。刘纯朝认为:《评价》“对推进中国大学的研究与发展水平产生了较好的导向作用”、“是一个成功的范例”。蔡言厚、兰云、李卫说“笔者是持基本肯定态度的,并认为尽管《中国大学评价》还需要不断完善,但一次比一次进步,经受了实践的检验,得到社会的认可。”邵传芳说:以“《中国大学评价》为代表的民间大学评价,在连续多年反复商榷、不断修改和完善指标体系和指标权重的基础上,其大学排名已经与教育部门掌握的综合情况较为吻合,逐步得到各大学的重视和认同。”裴云则以《大学排行中文理科的权重及其导向性问题》整篇文章为《评价》的文理科权重作了辩护。蒋石梅、曾珍香、战英民、刘新福在总结了同行专家的评论意见后写道“武书连主持的大学评价得到了多数评论者的认可,不少学者提出了建设性意见,其中可操作部分都已被该课题组采用。”

在我国,自1987年中国管理科学研究院发布第一个大学排名开始,16年来,每当出现一个大学排名,总是伴随着对名次不满意的大学的强烈的反对声,而鲜有赞成者。在这样的大环境下,《评价》能得到不少评论者的肯定,笔者深感欣慰。

能不能公开上千名专家书面讨论的过程

为了科学地评价中国各大学的科研实力,1997年1月开始,《中国大学评价》课题组进行了建国以来国内高教评估界最大规模的专家咨询,历时6个月,共有1927名专家提供了4448份书面意见。专家资格为:中国科学院院士、中国工程院院士、国务院学位委员会学科评议组成员、国务院或国务院学位委员会审批的博士生导师。课题组当年发表的《中国大学研究与发展成果评价(节录)》(科学学与科学技术管理1997.7)中的各项科研成果指标权重就是根据1083名专家的最后意见确定的。

《误区》就《评价》的专家意见征询过程提出质疑:“所选择的专家是如何抽取的?”“如果专家有尖锐对立的看法,则武氏是如何加总的?”并且提出“不能不对这一过程操作中的真实性表示怀疑”。

笔者建议《误区》作者看看《中国大学研究与发展成果评价(节录)》。此文有一万多字专门叙述专家意见征询过程。《误区》提出的如何抽取专家、如何处理相互对立的意见等,都可以在这篇6年前发表的文章中找到答案,看完之后再对“这一过程操作中的真实性表示怀疑”也不迟。以前笔者答复同行商榷时,间或指出哪些质疑内容与笔者文章的实际内容有出入,但像顾海兵教授这样对被质疑人的主要文章根本不看的评论者笔者还是第一次遇到。

《中国大学评价》的科学假设是有根据的

1997年,笔者以“不同类型大学的科研人员平均具有相同创新能力”的科学假设为基础,建立了一个新的中国大学科研评价体系。《误区》认为《评价》的科学假设“是一个虚假的前提”。《误区》并以“任何一个国家的不同学科不可能在世界上具有同等的地位”等论据试图证明《评价》的科学假设不能成立。

笔者用1992-1999年中国所有的综合类、工科类、农林类、医药类大学自然科学研究与发展全时人员连续8年的自然科学科研成果,证明《评价》提出的“不同类型大学的科研人员平均具有相同创新能力”和“不同学科的科研人员平均具有相同创新能力”的科学假设是有根据的。之所以选用1992-1999时间段的数据,是因为1992年以前教育部发布的数据不完整,而2000年中国高校合并重组后,中国各主要大学的学科结构已经改变。

表一是1992-1999年我国综合、工科、农林、医药类大学自然科学研究与发展全时人员(不含支持人员)人均科研成果得分一览表。综合、工科、农林、医药4类大学分别代表了自然科学的理学、工学、农学、医学4大学科。表一的年投入人力和各项科研成果得分是1992-1999连续8年的简单算术平均数,各项指标的数量源于教育部科技司按年度出版的《高等学校科技统计资料汇编》,指标权重源于《中国大学研究与发展成果评价(节录)》,其中国内论文均按1分计算。

从表一可见,4类大学的人均得分十分接近,实际差别不超过±5%。《误区》认为《评价》的国家级奖权重偏低(只相当于两部专著),笔者也有同一看法。当笔者尝试提高国家级奖和省部级奖得分即提高优质科研成果的得分而获得新的人均得分时,在总得分不变的前提下,4类大学人均得分的实际差别缩小到不超过±1%。见表一的参考人均得分。

表一直观地证明了《评价》的“不同类型大学的科研人员平均具有相同创新能力”和“不同学科的科研人员平均具有相同创新能力”并不是一个虚假的前提,而是客观存在的真实反映。笔者之所以仍以假设对待,是因为上述证明只是中国大学的经验证明,而非世界范围内的理论证明。只有在理论上证明了“不同学科的科研人员平均具有相同创新能力”,证明了不同质的科学研究可以转换为同质的科学研究,笔者才会不再作假设对待。

《误区》称:“任何一个国家的不同学科不可能在世界上具有同等的地位”。这句话本身并没有错,但是它与“不同学科的科研人员平均具有相同创新能力”之间没有必然的因果关系,是性质不同的两件事。例如:我国医药类大学的科研水平基本上决定了我国医学在世界上的地位。假设因为某种原因随机停办其中一半的学校,那么这些停办大学的科研课题就会停止,我国医学的某些领域在世界上的地位就会降低,从而导致我国整个医学在世界上的地位降低,但是这并不影响未停办的大学原有的科研得分和人均得分。也就是说,未停办的医药类大学的人均得分并不因为我国医学在世界上的地位降低而减少。《误区》将不同学科的科研人员是否具有相同创新能力等同为一个国家的不同学科在世界上是否具有同等地位,是在偷换概念。

《误区》称:“任何一个国家都具有自己的优势学科”。《误区》的这一观点是错误的。优势学科是就世界范围而言的,大多数国家在世界范围内并没有优势学科。以自然科学为例,以美国、英国、日本、德国为代表的少数科技大国在科学领域几乎具有全面的优势,在技术领域垄断着主要核心技术,多数国家特别是大部分发展中国家并没有自己的优势学科。

《误区》称:“学科之间差异正如国民经济中不同产业之间一样,不可能具有相同的劳动生产率或劳动均产出”。《误区》应该知道,研究大学评价的教育学和科学计量学是与国民经济学不同的学科,在不同的领域研究着不同的对象,不能将国民经济学领域的现象不加分析地推广到其它科学领域。《误区》的这一观点如果不是假设,就应该先证明它,而不是先作为结论使用。

《误区》称:“如果不同学科之间具有相同创新能力”,“每年的国家科技大奖岂不是每个学科都有份?”前文已述,“不同学科的科研人员平均具有相同创新能力”是指人均能力相同,并不表示每个学科都达到了相同的学术水平。我国普通高校现有自然科学类一级学科60个、二级学科244个,国家最高科技奖每年控制在两个,即使有更多的学科学术水平基本相同,也只能选两个。国家最高科技奖与人均创新能力是否相同没有关系。

《误区》称:如果“不同学科的科研人员平均具有相同创新能力”,那么岂不是“在同一学科或相同学科结构条件下,一个学校的规模越大,其所谓的创新能力或分值就越大。”《误区》又错了。虽然学校规模与得分是正相关,但并不是相同规模获得相同得分。上海交通大学和武汉理工大学同是工科大学,前者师资人数少于后者,但前者以94.91分列第9名,后者以30.62分列第38名。“不同学科的科研人员平均具有相同创新能力”并不排除同一学科中的不同群体有不同的创新能力,顾海兵教授只要看看评价公式就清楚了。

《中国大学评价》的指标体系是全面的

《误区》认为《评价》指标片面,“弃除了国内外公认的同行对高校声誉的评价”、“不仅硬指标不全面,而且软指标完全没有”。

《评价》是“以对社会的贡献作为唯一衡量标准”的大学评价体系。这一体系属于目标评价的范畴,其实质是对大学主要功能的评价。现阶段的中国大学有且只有人才培养、科学研究两个功能。《评价》的指标体系已经涵盖了这两个功能的所有产出项,指标体系是全面的。

《误区》认为《评价》“弃除了国内外公认的同行对高校声誉的评价”,“至少存在40%的误差”。

“至少存在40%的误差”在算术的意义上纯属算错了,因为如果学术声誉(高教评估界通常称为学术声誉或学校声誉,笔者是第一次看到高校声誉,本文仍称学术声誉)的排名与《评价》的排名一致,误差可以等于零。学术声誉指标是《美国新闻与世界报导》根据美国国情设计的评价美国大学的指标,即使西方国家也鲜有采用者,更谈不上“公认”。例如,英国是世界第二科学大国,英国的大学排名刊登在《泰晤士报高等教育副刊》上,15个指标中没有学术声誉。日本是世界第三科学大国,日本的大学排名刊登在《钻石》周刊上,11个指标中没有学术声誉。可见,在并不迷信美国报纸的英国人和日本人眼中,学术声誉指标并不重要,重要的是根据本国国情制定出符合本国实际的大学评价体系。中国有自己的国情,中国大学评价的指标设置也没有必要以美国一家报纸的标准为标准。大学评价要允许有不同的指标体系,允许不同的思想、不同的评价方法存在。认为没有学术声誉指标就“至少存在40%的误差”在国内外都找不到证据。

《误区》要《评价》增加的一些软指标,如“学校的财政状况(学生人均)、学生满意就职率、社会认可度、校友满意度”等,基本上来自《美国新闻与世界报道》的指标体系。美国的这家报纸对指标的选择有自己的考虑。《评价》作为目标评价,没有必要再增加软指标。如果什么指标都用美国报纸的,不如直接请美国报人来给中国大学排名。

《中国大学评价》的指标权重是符合实际的

《误区》指责《评价》“粗暴地把高校教员的人力总投入分为人才培养投入(57.09%)与科学研究投入(42.91%),并以此作为评价的权重。”《误区》并称“以笔者估计,中国高校教师实际用于研究的时间不少于全部劳动时间的75%。由此可以认为,其评价至少偏差30%。”

笔者第一次确定人才培养和科学研究权重的时间是在2000年,所用数据截止1998年。有关依据和操作过程简述如下:

1999年,教育部在《1998年全国教育事业发展统计公报》中发布的全国普通高校专任教师总数为40.72万人;在《1999年高等学校科技统计资料汇编》和《1998年全国高等学校社科统计资料汇编》公布的全国普通高校研究与发展全时人员共计16.88万人;在《1998中国教育统计年鉴》公布的中国各大学科研机构人员共4.31万人。16.88万研究与发展全时人员减去4.31万科研机构人员,其差12.57万人就是各大学上报教育部的专任教师从事科研的工作量或工作时间。40.72万专任教师总数减去12.57万人等于28.15万人,这28.15万人就是中国大学专任教师从事教学的工作量或工作时间。因此,1998年中国普通高校实际从事教学的全时专任教师与当年从事科研的研究与发展全时人员人数之比是28.15∶16.88,百分比为62.51%∶37.49%,指标权重为0.6251∶0.3749。这就是《评价》一级指标权重分配的来源,已发表在《中国大学评价———1998》中,引用的资料已列入各年度《评价》的参考文献。

上述教学与科研人员的比例包括专科学校,如只统计本科大学,教学与科研的指标权重会有一些变化。例如,2001年中国本科大学教学与科研人员之比为0.5709∶0.4291。

可见,《评价》是根据教育部公开发布的专任教师数和研究与发展全时人员数,统计出中国大学的教学与科研权重分配的,该权重实际是中国一千多所大学对本校教师各类工作时间统计的结果。《误区》指责笔者“粗暴”地确定指标权重、“武氏的评价至少偏差30%”是毫无道理的。

《误区》又指责笔者“粗暴地把理科师生与文科师生的8比2之数量之比,作为自然科学研究与社会科学研究的权重,还美其名曰客观反映高校实际情况”。

前文所述,《评价》是根据“不同学科的科研人员平均具有相同创新能力”的科学假设确定各学科门类的得分的。依据这一假设,中国大学各学科门类中同等数量的科研人员得分相同,不同数量的科研人员得分不同。2002年中国普通高校理科全时科研人员与文科全时科研人员人数之比约为8∶2,当年理科博导与文科博导人数之比也约为8∶2。在这样一个比例下,中国大学理科总得分高于文科总得分是正常的。中国大学设置专业、增加编制都需要政府主管部门批准,因此文理科师资人数的比例实际是政府行为。

《误区》反对《评价》按人均得分相同计算自然科学和社会科学的总得分。在《误区》看来,既然自然科学和社会科学同等重要,因此不管人数相差多少倍,自然科学的最高得分都应该与社会科学的最高得分相等,否则就是权重失衡。

问题是,大学评价只能客观地反映中国高校的实际情况,而不能改变和伪饰这种情况。理科与文科的实际比例是8∶2,在《评价》中就只能记载为8∶2,而不能记载为5∶5。不能因为看着不高兴、不满意而去改写它。只有这样,提供给社会公众的信息才是准确的。《评价》实事求是地将自然科学与社会科学的科研总得分按人数之比确定为8∶2,《误区》认为权重失衡。假设一个国家自然科学与社会科学人员的比例不是8∶2,而是80∶2,即这个国家已经将文科置于可有可无的境地。按照《误区》的理论,文科最高分与理科最高分仍然应该相等,丝毫看不出这个国家文科弱、理科强。但是在《评价》中,就能清楚地看到这个国家文理科投入的失衡,提醒社会加强文科建设,增加文科投入。中国社会是需要《评价》这样的真实反映各学科现状的大学评价,还是需要《误区》那样的为了增加文科得分而掩盖现实的大学评价呢?当然是前者。

厦门大学高教所裴云先生在《大学排行中文理科的权重及其导向性问题》中对《评价》的文理科权重作了分析。他写道:“大学排行中关于文科得分低、理工科得分高的状况是很正常的,是符合实际的,大学排行榜对大学进行了正确的评价。”“大学排行榜正确地揭露出中国大学的这种重理轻文状况,不仅不会对大学决策者起误导作用———如果大学排行榜将文理科的比例搞错了,才会产生深深的、更大的误导———还会起到一种警示作用,还会从大学排行榜中,使高教界看到,文科的得分如此之低,而想方设法对这种状况进行改进!事实上,正是通过大学排行在内的许多形式,当前我国大学重理轻文的状况已经引起了许多学者的注意,这就是大学排行的贡献之一。如果要说导向性,大学排行在这里起了引导高教界对我国文理科现状进行思考、设计方案、改进的效果!这是一种良性的导向!”

《中国大学评价》是公正的大学评价

《中国大学评价》是客观公正公开的大学评价,她的信度是由可重复检验保证的。但是《误区》认为,由于《评价》没有把科学道德纳入评价体系,因而背离了公正。

《误区》称:武汉大学“哲学系有关教授在湖北社会科学的优秀成果奖评选过程中有运作不公或运作不公之嫌疑”,因此把武汉大学“列入哲学第1名是值得质疑的”。

笔者认为,《误区》提出以“或运作不公之嫌疑”而取消武汉大学的哲学第一名是不能接受的。因为这明显属于有罪推定。对于《误区》提出的武汉大学哲学系的事情,湖北省社科优秀成果评奖办公室已经发表了否定声明,此事已经了结。一个评价体系如果走向以嫌疑论罪、走向有罪推定是很危险的。

《误区》又称:由于北京大学社会学教授“王铭铭的低劣学术道德及北京大学的处理之轻”,而“将北京大学列入社会学第1名、社会科学第1名是不公正的”。

笔者也认为北京大学对王铭铭教授的处理轻了。但是《评价》是以产出排名的,北京大学的社会学、社会科学在相同专业中产出最高,理应第一名。《评价》不能因王铭铭教授个人的问题株连北大社会学其他教师。认为北大处理轻了,已经不是北大社会学、社会科学两个专业的问题了,而是北大的整体问题了,总不能因为包括笔者和《误区》作者在内的一部分人认为处理轻了就降低北京大学的整体名次吧。

退一步讲,就算把科学道德列入评价体系,也应该对各大学一视同仁。在《评价》中,中国人民大学获得经济学第一名,《误区》对此没有异议。但是,如果真把科学道德列入评价体系,中国人民大学的经济学第一名也会被质疑的。因为人大教师有多人在经济学领域一稿多投、重复发表论文,其中也包括顾海兵教授。

人非圣贤,孰能无过。把科学道德列入大学评价体系,将大学评价变成人人自危的东西,笔者不能为。
版面所限,不能展开,不能尽言,甚为遗憾。

《科技日报》

联系我们

    上海市四平路1239号 021-65982200

   

沪ICP备10014176号    沪公网安备:31009102000038号    沪举报中心

Baidu
map