努力做“把命令下达清楚”的基层指挥员******
下达命令,务必清楚明确
■杨元超
不久前,我作为基地前进指挥组成员,随某旅夜间火力突击演练分队跟训。部队出发前,发射连连长在班排骨干会上提了不少要求。我旁听了一会儿,觉得他说的有些空泛、不够具体。比如,要求遭“敌”精准打击时各车灵活处置,却没说何时进行伪装、能否脱离梯队自行疏散隐蔽;安排兼职卫生员在出现人员“伤亡”时迅速处置,却对兼职和本职工作冲突时哪个优先没有明确;强调严格按规程操作,却对紧急情况下容易变形走样的环节没有强调提醒……而这些,恰恰是班排骨干最关心的点,也是他们在会后最需要给所属战士明确的。再一看听了连长讲话的骨干们,很多也是一脸茫然的样子。
回想起自己担任指导员的经历,“把命令下达清楚”,也是战士们给我上的第一课。记得上任不久,我连就参加了一次阵地外围警戒任务,事先我只给各警戒小组大体划分了范围,对一条平时很少有人车经过的“断头路”却没指定责任人,只说“有情况各小组兼顾一下就行”,结果当晚的导调课目恰恰是小股“敌特”从这条路上潜入。由于相邻两个小组在警戒巡逻时都对这条路“一带而过”,导致“敌人”差点渗透到装备附近,要不是操作号手及时发现,整个发射行动就失败了。
任务结束,我把责任归咎于警戒人员主动作为意识不强、不知及时补位,还当众批评了这两个小组。但我从战士们的眼神中感到,他们感到很委屈,甚至有些不服气。事后,副连长找到我开诚布公地说:“这次真不能怪战士们,怪就怪你没有把命令下达清楚。”
一语点醒梦中人。循着副连长的话反思,我发现自己除了这次任务外,在日常工作中也有不少命令下达不清的情况。开连务会部署工作,有的骨干几乎不动笔记录;晚点名讲评工作,队列里明显有人心不在焉……细细回想,出现这些现象的原因就是当时自己讲了不少正确的废话和“两头堵”的车轱辘话,而对官兵迫切想知道的“我该干什么、怎么干、达到什么标准”等,却囫囵吞枣、语焉不详。
认识到自己的问题后,再下达命令、布置任务时,我努力做到把方向目标指清楚、把标准要求尽可能量化到“米秒环”、把责任压实到具体人。如此一来,开会的时间变短了,任务却安排得明明白白。后来,有不少骨干反映,指导员讲话终于能说到点子上了。
战士们的鼓励,引发我更深的思考。作为一线带兵人和基层指挥员,“把命令下达清楚”很难吗?想想其实并不难,关键在于下达命令前一定把情况弄清、把任务想透,下达的命令一定要简明扼要、易于理解、具体可行,同时明确重点难点堵点,并给出相应的解决方法。战场上、工作中,固然需要官兵们发挥主观能动性,但绝不能因此而在安排任务时含含糊糊、大而化之,更不能故作高明地卖个关子,让部属去揣摩和猜测。因为,只有上级把话说清楚,下级才能把事干明白。
报告显示:超六成受访者认为应强制企业公开算法******
光明网讯(记者 李政葳)“当前,国内对于算法治理的基本思路和框架都是清晰的,而分级分类精准治理的模式应当可以解决如何落实的问题。”在日前举办的“2022啄木鸟数据治理论坛”上,谈及算法治理的现状,清华大学人工智能国际治理研究院副院长、人工智能治理研究中心主任梁正表示,算法分级分类本身不是目标,而是要针对不同风险场景配备不同监管规则。
论坛由南都个人信息保护研究中心联合清华大学人工智能国际治理研究院、人工智能治理研究中心(清华大学)主办。其间,南都个人信息保护研究中心发布《算法应用与治理观察报告》《个人信息安全年度报告》《平台经济反垄断观察报告》。
记者了解到,《算法应用与治理观察报告(2022)》,梳理了国内外的多项法规,结合热点事件及应用场景呈现了算法治理现状,并发布千份算法治理调查问卷了解公众对算法公开和算法治理的了解程度和基本态度,最后基于多方调查分析,给出了当前算法趋势观察以及未来治理方向建议。
报告发现,目前国内算法治理仍处于早期探索阶段,企业的算法公开主要依靠官方的互联网信息服务算法备案系统,或在舆情事件发生之后。调查问卷结果显示,近半受访者承认算法让自己的使用体验更好,但仅一成受访者认为企业算法公开做得很好,逾六成的受访者称曾遭遇“大数据杀熟”;超过六成的受访者认为应该强制企业公开算法。
“在数据、算法方面治理政策进展显著,在平台与应用方面的政策和落地尚需加紧。”中国科学院人工智能伦理与治理研究中心主任、国家新一代人工智能治理专委会委员曾毅认为,目前人工智能伦理有三个相当紧迫的问题需要被正视:首先,人工智能应当被适度使用;其次,目前人工智能服务知情同意落地艰难,被迫知情同意普遍存在;最后,目前用户数据的授权撤销在人工智能服务中存在巨大挑战,需要监管和更高层的网络服务提供方联合提出更合理的政策与解决方案。
针对日前发布的《互联网信息服务深度合成管理规定》,中国政法大学数据法治研究院教授张凌寒表示,从算法治理角度来说,深度合成管理规定与之前的算法推荐管理规定的思路有所不同,前者采用了一种“三位一体由的数据与技术规范。
具体来讲,由于深度合成技术的门槛较高,技术支持者也被纳入了监管范围内。比如,深度合成服务提供者提供智能对话、合成人声、人脸生成、沉浸式拟真场景等服务,应当进行显著标识,这就将更重的责任落在了服务提供者身上。
中国社科院科技和社会研究中心主任段伟文提到,算法治理需要构建可信任的算法认知,而这需要产业和消费者的共同努力:产业要努力提升算法精准性、透明度,减少偏见,减少歧视;消费者则需要提高数字素养,提升算法意识,加强在人机互动中自主性、控制感和协同意识。