【404视频】【CDTV】B站网友发布歌曲《阳光开朗孔乙己》:“精选的评论之上 有多少热血难凉”

“鲁迅的每一篇文章,都碰了不能碰的话题“

相关推荐

封面图片

【404文库】3号厅检票员工|如果你也很难过

这是充斥着太多眼泪与哭声的一年,如果要一一列举的话,这一篇文章应该都很难容纳完全。2022年发生了太多事,但越临近结束,我们似乎都愈有一种感觉——它们似乎越来越像同一件事了。 过去的这三年,像一张纸一样,被折叠起来了。

封面图片

听书还是看书

听书还是看书(这里所说的“听书”,不是10分钟解读一本书,而是原声书。)其实我最近一直在尝试以听的方式输入内容,原因是听歌听腻了,想有个人在耳边唠叨。原来是听播客,后来感觉播客的输入量已经不能满足我,就开始听原声书。听书现在被人诟病的地方是,听书只用到耳朵,容易注意力分散,而常常听书时,都是在地铁,干活的时候,很难说是在听书,还是当背景音。我做过实验,就是同样的一篇文章,反反复复听10遍,每一遍都能听到不一样的内容,所以可以得出其实我每一篇都没有认真听。可难道读纸质书,我就能做到读一遍就掌握上面的每一个字吗?我也同样做个实验,不断重复读同一篇文章,虽然眼睛看用嘴读,是要比听更注意力集中,但事实上,我每读一遍,同样也能读到不一样的内容。当意识到自己不论是听书还是在看书,都无法做到只字不差的阅读。这是我的问题。放下心中对听书的偏见,我就该干嘛干嘛,不同的场景做不同的事情,地铁里带耳机听书,在家里看拿纸质书看书。最后我想讲一下10分钟读完一本书这种媒介方式。如果你读完一本书,然后再去听一遍别人的讲解,应该会得我和我差不多的结论——原来这里还有这层意思。只听讲解会很乏味,有一种听完就读完的错觉,但读完一本书,再听别人的讲解,效果会非常好。我最近在尝试听和读同一本,带来的好处是读起来很快,结束后再听一遍讲解。不同的媒介会带来完全不同的体验,可以从不同角度去看一本书,和只是读一遍完全不一样。

封面图片

必须用ChatGPT写作业?沃顿商学院教授反道而行:上我的课就得用AI

必须用ChatGPT写作业?沃顿商学院教授反道而行:上我的课就得用AI他还“剧透”道,自己其实已经在课堂用上了AI工具,效果很棒。网友对此展开热烈讨论。多数人都觉得,面对当前情形,这不失为一个好点子,有人提到:连华盛顿邮报和美联社都在用AI写文章了,使用技术并不算作弊。只要给学生布置的任务别太简单,就不用担心他们拿AI蒙混过关。如何用ChatGPT写好作业那么,要怎么用ChatGPT写作业,只复制粘贴题干就行嘛?——当然不会这么轻松,这里面还有不少学问值得盘一盘。此前,莫利克让学生用ChatGPT写一篇关于“选举团队领导”的论文,要求全文共5段,每人必须至少给AI提示5次,最后总结使用感受。刚开始,每个人都把老师给的题干直接丢给AI,结果AI的生成作品也很拉胯,拿去交作业最多只能得个C-。于是同学们只好继续调教AI,大家主要整出了3种方式:第一种,就是最容易想到的:添加更多提示词,不断细化要求。就拿这次作业来说,从初版到最终版的提示如下:生成一篇关于选举团队领导的5段式文章;生成一篇关于团队如何选择领导的5段式文章;生成一篇关于团队如何选择领导以及团队过程如何运作的5段式文章;生成一篇关于领导如何被团队选中、团队过程和领导能力的5段式论文;生成一篇关于领导如何被团队选择、团队流程和领导能力的5段式文章,250字。第二种,是在提示中补充更多的专业知识,比如这样:生成一篇关于选择领导的5段式文章;生成一篇关于选择领导者的5段式论文,内容包括胡言乱语假说、领导者地位效应和资历;生成一篇关于选择领导者的5段式文章,涵盖咿呀学语假说、领导者地位效应和资历。解释胡言乱语效应是指谁说话最多,谁就能成为领导者;·······(后面太长就不放了)最后一种,相当于人担任审稿员,根据AI生成内容,指出错误点,循序渐进地指导其修改优化,比如:生成一篇关于选择领导人的5段式文章;这很好,但第三段不对。胡言乱语效应是指谁说得最多,谁就能成为领导者。纠正这一点,并增加更多关于如何使用它的细节。在第2段中增加一个例子;第2段的例子不对,总统选举是每4年举行一次。注意让最后一段的语言更有趣,并且不要用“总而言之”这个短语;根据4段内容,找出3个相关例子,要求它们富有故事性、叙述语言要生动。别使用只有男性特征的例子;把这一段加回到故事中去,把第二段换成关于个人领导风格的一段。修正最后一段,使其在一个充满希望的论调上结尾。显然,从第一种到第三种,操作者动脑程度依次递增。那效果嘛,可以说是“一分耕耘,一分收获”。第一种方法的最终输出结果也平平无奇,内容笼统虚无;第二种的效果明显好很多,然而这不方便微调文章内容,用此方法的同学称,感觉自己对AI的输出并无太多控制。最后一种“共同编辑法”效果最好,但这不仅要求人有一定专业知识,还得仔细检查AI的输出内容,从而提出好的建议。“学会使用AI是一种新技能”虽说ChatGPT问世不久便技惊四座,但后来大伙儿逐渐发现,此AI有时会“一本正经地胡说八道”。不过在莫利克看来,ChatGPT并非不能写好文章,而是需要加上合适的调教。他认为,既然现在AI工具已势不可挡,即使老师不许学生用ChatGPT写作业,学生也可能偷偷用。那不如…就让你们用个够,然后自然就能明白其中的利弊:学会使用AI是一种新技能……但像ChatGPT这种AI工具有局限性,这是大家必须了解的。所谓局限,比如:ChatGPT的内容生成质量和人给的提示息息相关,你的输入越敷衍,AI也会跟着敷衍。另外,有时它的回答乍一看说得头头是道,但其实夹杂着错误、有偏见的内容,必须人为订正。总之,用莫利克教授的话来说,学生想要通过ChatGPT写好一篇文章,甚至比他们纯靠自己写更有挑战性——因为学生可能还得像老师一样检查AI写的作业,有助于提高他们的逻辑思维。而除了莫利克,还有AI领域的专家也指出:其实诸如ChatGPT等AI,并不是用来跟你讲全新东西的。它们真正的好用之处在于,协助有一定专业基础的人,帮他们提升学习或工作效率。...PC版:https://www.cnbeta.com.tw/articles/soft/1345753.htm手机版:https://m.cnbeta.com.tw/view/1345753.htm

封面图片

下午察:任泽平大战司马南

下午察:任泽平大战司马南新年伊始,前恒大首席经济学家任泽平发文声讨左派大V司马南。双方围绕着中国民营经济的话题展开激烈的口水战。任泽平率先在年除夕前夜(1月20日)发难说,现在各界都呼吁把网上个别“喊打喊杀”“让民营企业离场退场”的坏人管起来。这些坏人破坏了市场经济的健康生态,制造舆论恐慌,打压民营经济信心,对抗中央“两个毫不动摇”精神,不学无术,触犯国家大政方针。他写道:“这些坏人是谁,一目了然,童叟皆知,而且还在那招摇过市、嚣张跋扈、继续干坏事。”虽然任泽平并没有指名道姓,但网民们在微博留言中列出了不少网络大V的名字,其中出现最多的就是司马南。任泽平随后又发数文,要求守护市场经济,不纵容“那些在国外买房生活、在中国搞破坏的坏人”。曾承认在美国买房的司马南,1月22日主动对号入座,以题为《明人明察:警惕任泽平》的一篇文章回击,讽刺任泽平是个声名狼藉的经济学家。随后这场争论彻底演变成了口水战,一来一往之间不乏人身攻击和无理谩骂。但由于话题涉及对待中国民营经济的态度,不少意见领袖和经济学家也纷纷加入辩论。《环球时报》前总编辑胡锡进表态说:虽然消音不是解决之道,但他也反对对民营企业“喊打喊杀”,颇有为任泽平站台的意思。比起胡锡进的委婉,财经作家吴晓波则立场明确,称“我们与夹头们已然势同水火、势不两立”。他写道,经济学家要“在对峙的时候,脱掉西装……把大粪捡起来,扔出去”。不过,吴晓波不仅骂司马南,连胡锡进也一起骂了。他说,无论是在学界还是企业界,说到“夹头”或“叼盘”,大家都摇着头把他们当成一个恶劣的笑话。但是却罕见有人愿意或者敢于冲到一线,与他们大声地辩驳格斗。这样的后果是,在相当广泛的民众层面,企业家成了“资本家”,人们对民营经济产生了极大的误读和错解,它所造成的压抑的舆论氛围,进而打击了民营企业家的信心,其最终的结果则是,影响了中国经济的投资和复苏。...发布:2023年1月25日10:07PM

封面图片

追完了河南都市频道的缅北电诈栏目,太久违地感受到真正的调查报道的震撼。

追完了河南都市频道的缅北电诈栏目,太久违地感受到真正的调查报道的震撼。前两天团队成员发了篇声明,讲述了他们整整半年的卧底历程。结合他们的声明文章和团队在dy上的更新,可以一点一点地,串起他们这次调查的时间线——2023年上半年,团队卧底缅北诈骗组织。4月起,dy开始更新从缅甸成功逃生者的采访,穿插反诈志愿者拍摄的当地视频。6月,河南都市频道先后上线节目《边境“蛇”影》;7月3日,团队开始更新《缅北归来》系列追踪报道。7月23日,缅甸电诈团伙给受害者的母亲打电话说,把视频下了,我们就给孩子送到国门口。钱我们一分都不要了。dy上的缅北调查合集,现在已经出到了197集。「从见到蛇头,整个过程都是被蛇头控制的。每走一步,都会被盯着,这个时候想逃跑已经没有机会了,最后我们也是通过别人帮助脱身。」寥寥数语,用词是新闻人的精准简洁,读起来却实在是惊心动魄。每一步他们都心知肚明,这一趟或许会有去无回。应该是为了保护卧底团队信息,所有卧底记者都没有露脸。但在最新的报平安的视频中,能看见一个长发女孩戴着帽子的后脑勺。《缅北归来》中经常出镜采访的另一位女性记者卢艺丹,在这个视频中,平稳冷静地说:「我们的卧底记者就在我们身边。我们现在很安全。」卢艺丹也是当年河南暴雨之后,下到齐大腿深的积水中做现地报道的那位记者。*那篇讲述卧底过程的文章中,有一句简短少见的,像是带着主观色彩的结论:他们也害怕舆论的压力,所以说新闻报道是很有作用的。新闻报道是有用的——看到这句话瞬间心酸,他们经历了多少「没用」的质问?记得21年看到过南风窗的记者赵佳佳的一篇文章,写到自己前往山西临汾调查一起饭店坍塌事件的经历。她在村子里的玉米地被两名男性拦住,要求她出示证件。她意识到自己绝对不能被发现身份,电光石火间,她的视线瞥见了断裂的土墙缝隙间,无数黑色长条的虫子正在爬行。于是,她利用了自己作为一个「小姑娘」的便利,随口对他们说,自己是来做暑期调研的生物系学生,来收集这里的虫子。她当然也有作为调查记者的痛苦,新闻业是不是真的,再也无法拥有真正的调查报道。她在极度迷茫之时也问过前辈,是怎么坚持下来的。即便如此,她还是觉得,记者明明可以写那么多的故事。她会潜入大学的教室,她不得不伪装成急切寻人的家属,她得在互联网上某个话题下长达十年的讯息里面翻找……她不知道新闻死没死,只知道,她得做有意义的、有信息含量的报道。我想,那些在蛇头的带领下越过国境线的记者,那些走访十省坚持输出的记者,卧底黑砖窑的,卧底地沟油厂的,在暴雨中举着麦克风哽咽的人,他们在做这些的时候,也不会去想,新闻是否已死。只要能救一个人,只要多讲述一点未被知晓的真实……仍然有许多这样的调查记者如一柄雪亮的刀锋破开层层黑暗,却也籍籍无名。这个世界,原本并不缺少英雄主义。【网评】这是另外一种新闻人。是少见的,但这才是真正的无冕之王。【网评】几位女记者,是真的猛士和英雄。

封面图片

2023,我们不得不面对ChatGPT引发的混乱

2023,我们不得不面对ChatGPT引发的混乱1月28日,美国“内幕”网站发表文章称,“ChatGPT才出现两个月,就已造成了难以言喻的混乱。”虽然ChatGPT诞生于去年,却有媒体把2023年视为ChatGPT元年。在我看来,这主要想说明,2023年将是人们不得不面对ChatGPT所引发混乱的一年。ChatGPT带来的惊喜与焦虑自诞生伊始,ChatGPT便受到了人们的狂热关注,各国注册者众多,但往往被告知“现在已经满负荷运转”而无法注册。历经月余,我终于在不久前注册成功,随后亲历的一些试验结果既令人惊喜和赞叹,也让我和诸多教育工作者一样感到担忧。我的一个体验是——用英文发出指令,“请写一首包含白雪与树林的(英文)诗歌”。在不到一分钟的时间,ChatGPT就给出了一首近乎完美的英文诗歌。我将其在朋友圈发布后,有许多英文系教授都深感惊喜,并赞叹“水平相当高!写得极好!太神奇了!”当然,ChatGPT的功能远不止于此。据“内幕”报告称,研究人员最近让ChatGPT通过了美国一项极其艰难的考试——美国医疗执照考试。该考试由三部分组成,报告称,ChatGPT“在没有任何培训或强化的情况下,所有三项考试成绩均达到或接近通过门槛”。这一成绩自然得到人们的夸赞。然而在称赞背后,人们应该看到ChatGPT之于学术界的焦虑与恐慌。事实上,在ChatGPT刚刚问世不久,很多人就感受到它给写作带来的巨大威胁。以《大西洋月刊》为例,它在ChatGPT诞生不到10天,便连续发表两篇颇有些耸人听闻的文章,一篇题为《大学中的论文已死》,一篇题为《高中英语的终结》。将两篇文章对照看,不难发现其所论述的是一回事儿,即从中学到大学,人们在语文教育与通识教育中一直训练学生掌握的写作本领已经走入死胡同。正如《大学中的论文已死》中所说,高校中的论文,尤其是本科生论文,长期作为人文教育的核心,是我们教育学生如何研究、思考和写作的方式。但是,人工智能的出现造成了整个传统即将被彻底颠覆的现象。《大学中的论文已死》一文还引述加拿大多伦多大学副教授凯文·布莱恩的话——他对ChatGPT的表现深感震惊,认为如此一来,自己就无法再给学生布置课外作业了。事实上,构建语言技术的工程师和语言教育工作者都没有为这一新生事物的出现及其后果做好准备。学术界仓促应战虽然几年前人们已经在谈人工智能时代的到来,但当ChatGPT如海啸般迎面砸来时,学术界基本上还是属于仓促应战。目前看,最主要的应对措施就是政策封堵、禁止使用或限制性使用。由于学校中已经出现学生使用AI生成的内容冒充个人作业,而人工智能造成的剽窃行为在当下的学术规则中很难得到证明,包括英国、法国、美国在内的诸多教育部门均出台政策,禁止在学校使用ChatGPT。当然,学术界受到的影响更大。1月26日,《科学》主编索普以社论的形式发表题为《ChatGPT很好玩,但不能成为作者》的文章,称在不到两个月的时间里,ChatGPT已经成为一种文化轰动,且对科学界和学术界造成严重影响。ChatGPT对撰写科学论文所带来的影响很令人担忧。他说,人们在最近的一项研究中发现,有大量由ChatGPT创建的论文摘要被提交给学术审稿人,但被发现比例不超过63%。他预计,今后这种由人工智能生成的文本将会更多。索普强调,多年来,《科学》系列期刊的作者会签署一份许可证,证明“该作品是原创的”。对于该刊来说,这足以表明ChatGPT所编写的文本是不可接受的——毕竟它是从ChatGPT中抄袭而来。索普说,我们现在正在更新编辑规则,强调不能在作品中使用由ChatGPT(或任何其他人工智能工具)所生成的文本,数字、图像或图形也不行。他特别强调,人工智能程序不能成为作者。如有违反,将构成科学不端行为,这与窜改图像或抄袭无异。在《科学》发表社论的前两天,《自然》也发表文章指出ChatGPT等工具威胁着科学的透明度,进而宣示该刊使用它们的基本规则,即任何人工智能工具都不会被接受为研究论文的署名作者,因为任何作者都承担着对所发表作品的责任,而人工智能工具无法做到这点。文章同时指出,如果研究人员使用了有关程序,应该在方法或致谢部分加以说明。包括《细胞》《柳叶刀》等在内的诸多科学类期刊也都发布了与此大体一致的规则。高校被迫修改反剽窃条例相比科学界,高校受到的影响更大。1月22日,美国斯坦福大学的《每日斯坦福》发表文章称,根据该报进行的一项非正式民意调查,有大量学生已经在期末考试中使用了ChatGPT。1月28日,《福布斯》发表文章称,“89%的学生承认使用ChatGPT做家庭作业,教育工作者正在与剽窃作斗争”。若想知道问题的严重性,不妨来看看《福布斯》对学生所做的详细调查。其中,48%的学生承认使用ChatGPT进行家庭测试或测验。53%的学生用它写了一篇论文,22%的学生用它写了一篇论文的大纲。72%的大学生认为ChatGPT应在他们的大学网络中被禁用。同时,在对ChatGPT有所了解的大学教授中,有72%的教授担心其用于作弊;超过1/3的教育工作者认为,ChatGPT应该在学校尤其是大学中被禁止,而66%的人支持学生使用它。学生之所以对此趋之若鹜,实在是因为ChatGPT的功能过于强大。根据美国宾夕法尼亚大学沃顿商学院MBA教授泰维奇的说法,ChatGPT在常青藤联盟MBA级别的运营管理考试中的表现能获得“B或B-”的成绩。据《华尔街日报》报道,美国犹他州韦伯州立大学的一位教授要求ChatGPT用他的声音写一条推文。几分钟内,该程序发出了十几条消息。这位教授对此的反应是,“天哪!这是有史以来最伟大的作弊工具。”由此,是否禁止ChatGPT真的成了人们需要面对的一个问题。当然,更多教师在思考该如何在自己的课程、学习指南中去部署阻止作弊的策略,并确保学生学会独立思考。美国一些高校已经将新技术纳入其学术诚信中。华盛顿大学和佛蒙特大学等已经修改了它们的学术诚信策略,将使用ChatGPT等人工智能工具纳入剽窃等学术不端范围。能否拓展使用当然,也有一些教师对ChatGPT的出现与发展持更积极的态度。据报道,宾夕法尼亚大学沃顿商学院副教授莫里克鼓励自己的学生使用ChatGPT。在他看来,“我们已经身处人工智能的世界,那就让我们分享人工智能的成果吧”。需要注意的是,莫里克在接受采访时说:“即使我不要求(他们使用ChatGPT),也可能无法阻止他们(去使用)。”这其中的无奈需要引起我们的关注。莫里克也承认,对于人工智能如何改变课堂评估,自己同样焦虑,但他认为教育工作者要与时俱进。他强调,当年高校曾经教学生如何在一个有计算器的世界里做数学,现在高校面临的挑战是要让学生意识到,世界再次发生变化,我们要教会他们怎样适应这种变化。赞同者中,有人持一个有趣的观点——目前专门校订英语写作中语法问题的人工智能程序Grammarly早已出现,既然人们可以使用它修改自己的语法、语汇等,为什么不能将ChatGPT视为此类程序的一种扩展呢?值得注意的是,近日,《美国高等教育纪事》发布公告,该报将与大学创新联盟主办网络会议,讨论“用于学生的人工智能工具”。该报指出,人工智能已经广泛应用于多个领域,但随着其进入高等教育,如何使其成为以学生为中心的使用工具?高校是否会采用人工智能已经不再是一个问题,现在关注的是如何合乎道德且高效地应用人工智能,改善学生的体验。希望教育领域、学术界和技术专家在此次会议上围绕高教机构如何从...PC版:https://www.cnbeta.com.tw/articles/soft/1342047.htm手机版:https://m.cnbeta.com.tw/view/1342047.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人