网络募捐不能违背公序良俗******
□ 金泽刚
近日,江秋莲与刘暖曦(曾用名:刘鑫)生命权纠纷案在山东省青岛市中级人民法院迎来终审宣判:驳回上诉,维持原判,刘暖曦需赔偿江秋莲各项经济损失49.6万元及精神损害抚慰金20万元。从法律上讲,该案已画上了句号,但案结事未了。随后刘暖曦通过微博就赔偿款发起网络募捐,引发很多网友愤慨。目前刘暖曦账号已被禁言。这起事件也引发了公众对网络募捐所涉法律问题的关注。
根据我国慈善法相关规定,慈善募捐,包括面向社会公众的公开募捐和面向特定对象的定向募捐。由于慈善的公益特性,决定了自然人主体并不具备慈善募捐的资格,因此个人在微博就赔偿款进行募捐,呼吁网民进行打赏不属于慈善募捐的范畴。此类行为在性质上可定义为通过网络的个人求助行为。
对于他人发起的求助,社会大众或出于同情、怜悯等缘由而给予其物质帮助,这在性质上归属于民事赠与,对此,法律并未禁止。当然,民事法律行为应当遵循诚实信用等基本原则,求助人不得采取欺诈等方式向他人求助,以获得捐款,还应当遵照事先说明的用途使用募捐款项,否则构成民法上的“欺诈”,即诈捐,诈捐是要承担相应法律责任的。
与此同时,我国民法典规定,民事主体从事民事活动,不得违反法律,不得违背公序良俗,违背公序良俗的民事法律行为无效。就此案来说,法院的判决已明确了其中的是非曲直,也尊重了人民群众朴素的公平正义观念。司法判决弘扬的是人间正气,呼唤的是社会良知,热心助人者应该得到补偿和认同,自私冷漠者必须得到批评和惩罚。这不只是司法判决的法理所在,也是社会公序良俗的必然要求。
2021年最高人民法院在《关于深入推进社会主义核心价值观融入裁判文书释法说理的指导意见》中指出,各级人民法院应当深入推进社会主义核心价值观融入裁判文书释法说理,将社会主义核心价值观作为理解立法目的和法律原则的重要指引,即司法判决就应彰显公平正义,鞭挞丑恶自私。由此案说开,如果其他案件的当事人也因违背社会主义核心价值观与中华传统美德的行为,对他人造成伤害而被法院判处承担赔偿责任,但又就赔偿款进行网络募捐,那么这一行为其实就是在向社会公序良俗发起挑战,在向社会主流价值观发起挑战,对此,相关网络平台要严格依据《网络信息内容生态治理规定》《关于切实加强网络暴力治理的通知》等相关规定,承担起相应的法律义务和社会责任,对相关当事人的一些偏激言论,乃至后续的网络募捐行为作出必要的限制和监管。
同现实生活中的“讨要”不同,网络属于虚拟空间,在网络上的“求助”不仅求助对象广泛,明显带有社会公共属性,而且便于美化自身角色,从而容易博取同情,进而获利。因此,对网络平台上的求助行为,特别是网络打赏等经济活动的监管亟待加强。对于是否将个人募捐求助纳入慈善法的规制范畴,值得进一步探讨。如果立法条件尚不成熟,亦可考虑在目前的《社会救助暂行办法》中增设关于“网筹型个人求助”的内容,因为完备的社会保障制度和慈善制度在外延上应当包括个人求助制度,个人求助的核心在于个人求助权利得到保障和实现。
无论如何,从目前的法律规定来看,不是什么钱都能在网上“讨要”。网络求助同样应当遵循民事行为的基本准则,而且,网络求助应当留给那些真正需要帮助的人,不能让网络平台为违法担责者博取同情、获取财物提供帮助。
(作者系同济大学法学教授,上海市嘉定区法学会副会长)
人工智能如何做到可信、可用?专家热议:把责任归结到个人******
中新网北京12月11日电 人工智能治理的理想状态,是人工智能技术能做到可知、可信、可控、可用。而在现实中,人工智能技术手段虽然非常强大,但是离完美、完善仍有相当的距离。从技术角度和技术应用角度,人工智能的发展如何做到扬长避短?
近日,在2022人工智能合作与治理国际论坛上,专家围绕该话题进行了讨论。
中国工程院院士、鹏城实验室主任高文认为,现阶段很多技术还处于发展的过程中,如果过早地说这个不能用、那个不能用,可能会抑制技术本身的发展。但反过来,如果什么都不管,也不行。
“因此,现在更多还是从道德层面多进行引导。同时,做技术的人,也要尽量把一些可能的风险、抑制工具,即约束风险的工具,尽快想明白。自己也做,同时号召大家做,两者结合。”他说。
清华大学智能产业研究院国强教授、首席研究员聂再清认为,我们要保证能够创新,但同时不能让创新对我们的生活产生破坏性的影响,最好的办法就是把责任归结到个人。
“技术的背后是有人在控制的。这个人应该时刻保证工具或创新在危险可控的范围内。同时,社会也要进行集体的监督,发布某个产品或技术,要能够召回、撤销。在创新和监管之间,当然是需要平衡的,但归根结底,还是要把责任落实到个人身上。”他指出。
瑞莱智慧RealAI公司联合创始人、首席执行官田天补充道,在技术可解释性方面,需要去进行技术发展与相应应用场景的深度结合。大家需要一个更加可解释的AI模型,或者更加可解释的AI应用。
“但我们真正想落地的时候,会发现每个人想要的可解释性完全不一样。比如:模型层面的可解释,可能从研发人员角度觉得已经很好了,但是从用户的角度是看不懂的,这需要一些案例级的解释,甚至通过替代模型等方式进行解释。因此,在不同领域,需要不同的可解释能力,以及不同的可解释级别,这样才能让技术在应用场景发挥最好的作用。”他说。
将伦理准则嵌入到人工智能产品与系统研发设计中,现在是不是时候?
高文认为,人工智能软件、系统应该有召回的功能。如果社会或伦理委员会发现这样做不对,可能带来危害,要么召回,要么撤销。
高文说,应用的开发者,系统提交或者最终用户让他去调整的时候,他应该有责任。如果开发者发现已经踩线了,应该给他一个保护机制,他可以拒绝后面的支持和维护,甚至可以起诉。“不能只说哪一方不行,光说是开发者的责任,他可能觉得冤枉,因为他只提供工具,但有时候是有责任的,只是说责任怎么界定。”
“在人工智能的发展过程中,一方面要建立一些红线。”田天建议,比如,对于人工智能的直接滥用,造假、个人隐私泄露,甚至关联到国家安全、生命安全的,这些领域一定要建立相关红线,相应的惩罚规定一定要非常清晰,这是保证人工智能不触犯人类利益的基本保障。
“在这个基础上,对于处于模糊地带的,希望能留有更多空间。不光是从限制角度,也可以从鼓励更加重视伦理的角度,促进合规地发展。”田天称。
2022人工智能合作与治理国际论坛由清华大学主办,清华大学人工智能国际治理研究院(I-AIIG)承办,中国新闻网作为战略合作伙伴,联合国开发计划署(UNDP)、联合国教科文组织(UNESCO)等国际组织、国内外学术机构支持。(中新财经)
(文图:赵筱尘 巫邓炎) [责编:天天中] 阅读剩余全文() |