conan1412mi 是的,我基本认同你说的全部情况,事实上,有一些情况其实比你想的更糟糕。
1。在消费问题上,维持市场需要市场发生资金流动(Eichengreen, 2004),因此所有的资本都在想尽一切办法促进资金流动(Griffith-Jones, Montes and Nasution, 2001)。使用ai来预测行为促进消费和预测市场已经不是什么秘密,ai和大数据等第四代技术革命的成果其实是目前消费主义的最大推手之一(Hermann, 2023)。
2。隐私问题。这个问题其实非常有深度,非常值得我们来思考。
你所描绘的内容,其学名是“社会行为分析”,它存在的时间远远早于ai学科出现(Guerin, 1994)。从第一个“社会”形成时,该行为就已经诞生,且被无数人利用来达到自己需要的目的。事实上,我们如今的社会学,人类学,经济学,心理学等学科与相关的活动,都建立在“社会行为分析”的基础上,且目前的传统工具效率并不不低于大模型ai(Benjamin, 1974)。甚至人类在进行“社会行为分析”的过程中所使用的手段对隐私的侵犯,远超使用ai分析抹除了身份标识的数据。某种意义上来说,现代社会建立在这件事物上(Leary and Hoyle, 2009)。
判断这是否是一种隐私侵犯,以及思考如何对这种行为进行静止和处罚很困难,也很值得研究。主要因为这是人类的基本社会行为。只要人类有思维,绝大多数人类就会开始思考同类的行为并下意识进行利己行为(Guerin, 1994),无论是使用已有工具还是ai(已有的计算机程序的效率不逊于ai)。这导致该行为侵犯隐私的原因是人类本能,进而很难处罚(Prooijen, 2017)。我们也很难建立一种量表或公式来判断利己行为是否正当,因为任何正对数量的分类系统除非无限细分,否则都有钻空子的可能(Bentham, 1871)。例如个人行为合法,团体行为非法,或高于一定收入的利己行为非法。这些可通过建立个人独立部门,以及将收入拆分等方法来规避(具体参考正对走s和贩d的法律目前面对的问题)。针对社会行为分析这样的人类本能行为采用这样的方法只会产生更加严重的问题和无穷无尽的法律补丁。恕我愚笨,目前我没有完成一套有进行可行性研究价值的方案对“社会行为分析”实现管理。
3。监管。请参考随附单参考文献(Hasija and Esper, 2022)(Ismatullaev and Kim, 2024)(Park and Jones-Jang, 2023)(Choung, David and Ross, 2023)(Kelly, Kaye and Oviedo-Trespalacios, 2023)(Kim, Giroux and Lee, 2021)。从中你可以发现,与其说是大众无法意识到其危险性,到不如说目前大众的意识是在两极分化之间左右横跳,比例基本是50:50,包括各国政府。为什么,因为ai的黑箱特性。
就像你说的,在不清楚ai能做什么,怎么做,有什么影响的前提下,民众是出于信息劣势的,自然只能接受有心之人的引导,难以作出合理分析。因此,人工智能发展的主要伦理原则中新增加了有关“可解释性”的问题,目的是尽量满足ai开发者,媒体和公众之间的信息平衡。我很认同你的一个观点,问题出在信息传递上。我们迫切的需要人人可接触,被大众人人监管,公平并且可信赖的信息传递方法。在这一点上,分布式网络和ipfs虽然不是最优解,但是是可以去参考的可能方法(Benet, 2014)(Steichen et al., 2018)(Ali, Dolui and Antonelli, 2017)(Chen et al., 2017)。
4.对于数据污染。非常感谢你的举例。在影视作品中出于效果的实现,作者放大了数据污染会导致的问题,但这的确展示了数据污染的可能危害。在目前的ai开发中,非正常数据对于模型的整体影响更小也更容易被控制。你可以类比香农极限来进行理解,即数据中的“noise”在超过该数据的某个极限前,该数据依然是可以信赖并有效的(Wu et al., 2023)。正如亚马逊的案例,最终的ai模型整体上依然正常,不会出现影视作品中的情况,而是会在一些特定的问题上出现偏差。
5.自然资源。恭喜你,你已经意识到了可能的问题。在试图获得提升效率的模型的过程中,资源争夺战已经产生了(Bültemann et al., 2023)(Desislavov, Martínez-Plumed and Hernández-Orallo, 2023)。Google目前已面对数据中心所在的佛罗里达州的质询,需要其解释对当地水资源和能源的消耗并提供解决方案。这正迫使Google思考对其旗下的多个数据中心进行搬迁。
6。社会资源。是的,ai发展带给人类的冲击,这注定无法避免(Nguyen and Vo, 2022)。而这种情况已经不是第一次发生了。回顾历史,无论哪一次技术革命,都注定会颠覆原有的社会形态(Campa, 2017)。现在我们面对的ai和IoT带来的第四次技术革命,也无法避免(Peters and Jandrić, 2019)。在社会层面面对每一次工业革命后新的社会环境,人类需要尽快思考在新环境下的生存方法,通过自我学习找到在新环境下的生存方法(Kumar, 1984)。让人不太能接受的是,人类社会的“自然选择”往往更加残酷。对于无法在新环境中找到出路生存下来的人,这很有可能就是他们的终点。除了寄希望于生产里增加后带来的社会道德与福利水平增加,这些人很有可能在各种意义上被淘汰(Campa, 2017)。这很残酷,让人不忍直视,但这也是社会运行的必然结果。即使ai不出现,其他的事情也会接替ai的位置继续发生。生物的生长规律告诉我们生物个数生长到极限后就会因为各种问题而发生回落(Lotka, 1998)。我们能做的,大多数情况下只能是“Welcome tomorrow”。面对新事物,新环境的到来,了解他,思考它,适应它,并在自己的能力范围内推动它。尽管不甘心,但对于你我这样的普通公民来说,这可能是最好的结果了。
但我仍然对ai推广保有信心,并不是因为它能实现什么,而是因为它的威力有可能被所有人使用。
就像我在我文章最后一段说的,我们是有可能将ai分布化,让它变得人人使用,人人监督,人人管理(Wu, Terry and Cai, 2022)。我们是有可能把这颗核武器的按钮,交到每个人手里。此时,这颗武器的威力将被消减。而被摊平到每一人手上的ai网络,存在的监管、隐私等问题也将更有可能获得优质的解答(Ge, Yang and Han, 2017)。分布式ai网络消耗的自然资源,也从集中消耗变成了从全世界根据不同地区的情况进行合理消耗(Lin et al., 1995)。但在这种情况下,和你想的一样,AI对社会资源分配的冲击很有可能仍然存在。这是技术革命,是社会发展的结果之一。是残酷的,强硬的,也是理性的。人类存在的意义很难被剥夺,其会作为社会的基本基本构成单元之一永久维持其运作。但在每次浪潮中,无法适应新环境的人,是会被淘汰的。我所抱有信心的,是ai最终很有可能不会变成一超多强手里的武器,为一些人对其他人的压榨提供便利。而是变成人人平等,可用的工具。当有人试图将其武器化时,其余人手中有权利,也有能力和他对抗,对他予以否决。
非常感谢你的回复。我的回复中可能存在一些较为直接,理性和冷酷的表达,对此我表示道歉。但是我想既然我们是在试图以一个较为学术的态度讨论这件事情,我最好还是不要和之前一样保持一个科普和稀泥的态度。因此我选择了以一种更加直接的方法展示目前与你的思考相关的学术研究。
此外,我还需要道歉的地方是,本人并不主攻“ai伦理学”方向,因此很多回复可能存在缪误,可能导致对你的误导。这点需要你自己思考和甄别,对于和我意见不一的内容,请大胆坚持你的想法并想办法去寻找资料支持和论证它。请继续深入思考你的想法,为你的思考和结论尽量添加一些support和survey,并将其整理成研究记录。我将非常乐意以我个人的名义将你的研究成果推荐到我所认识的大学和研究机构的相关研究人员,从而帮助你获得更加优质和合格的帮助。
参考文献:
Ali, M.S., Dolui, K. and Antonelli, F. (2017) ‘IoT data privacy via blockchains and IPFS’, in Proceedings of the Seventh International Conference on the Internet of Things. New York, NY, USA: Association for Computing Machinery (IoT ’17), pp. 1–7. Available at: https://doi.org/10.1145/3131542.3131563.
Benet, J. (2014) ‘IPFS - Content Addressed, Versioned, P2P File System’. arXiv. Available at: https://doi.org/10.48550/arXiv.1407.3561.
Benjamin, L.S. (1974) ‘Structural analysis of social behavior’, Psychological Review, 81(5), pp. 392–425. Available at: https://doi.org/10.1037/h0037024.
Bentham, J. (1871) Theory of Legislation. Trübner.
Bültemann, M. et al. (2023) ‘Energy Consumption of AI in Education: A Case Study’, in. 21. Fachtagung Bildungstechnologien (DELFI), Gesellschaft für Informatik e.V., pp. 219–224. Available at: https://dl.gi.de/handle/20.500.12116/42195 (Accessed: 3 March 2024).
Campa, R. (2017) ‘Technological unemployment : a brief history of an idea’, ISA eSymposium for Sociology, 7(1). Available at: https://ruj.uj.edu.pl/xmlui/handle/item/46288 (Accessed: 3 March 2024).
Chen, Y. et al. (2017) ‘An improved P2P file system scheme based on IPFS and Blockchain’, in 2017 IEEE International Conference on Big Data (Big Data). 2017 IEEE International Conference on Big Data (Big Data), pp. 2652–2657. Available at: https://doi.org/10.1109/BigData.2017.8258226.
Choung, H., David, P. and Ross, A. (2023) ‘Trust in AI and Its Role in the Acceptance of AI Technologies’, International Journal of Human–Computer Interaction, 39(9), pp. 1727–1739. Available at: https://doi.org/10.1080/10447318.2022.2050543.
Desislavov, R., Martínez-Plumed, F. and Hernández-Orallo, J. (2023) ‘Compute and Energy Consumption Trends in Deep Learning Inference’, Sustainable Computing: Informatics and Systems, 38, p. 100857. Available at: https://doi.org/10.1016/j.suscom.2023.100857.
Eichengreen, B.J. (2004) Capital Flows and Crises. MIT Press.
Ge, X., Yang, F. and Han, Q.-L. (2017) ‘Distributed networked control systems: A brief overview’, Information Sciences, C(380), pp. 117–131. Available at: https://doi.org/10.1016/j.ins.2015.07.047.
Griffith-Jones, S., Montes, M.F. and Nasution, A. (2001) Short-Term Capital Flows and Economic Crises. OUP Oxford.
Guerin, B. (1994) Analyzing Social Behavior: Behavior Analysis and the Social Sciences. Context Press.
Hasija, A. and Esper, T.L. (2022) ‘In artificial intelligence (AI) we trust: A qualitative investigation of AI technology acceptance’, Journal of Business Logistics, 43(3), pp. 388–412. Available at: https://doi.org/10.1111/jbl.12301.
Hermann, E. (2023) ‘Artificial intelligence in marketing: friend or foe of sustainable consumption?’, AI & SOCIETY, 38(5), pp. 1975–1976. Available at: https://doi.org/10.1007/s00146-021-01227-8.
Ismatullaev, U.V.U. and Kim, S.-H. (2024) ‘Review of the Factors Affecting Acceptance of AI-Infused Systems’, Human Factors, 66(1), pp. 126–144. Available at: https://doi.org/10.1177/00187208211064707.
Kelly, S., Kaye, S.-A. and Oviedo-Trespalacios, O. (2023) ‘What factors contribute to the acceptance of artificial intelligence? A systematic review’, Telematics and Informatics, 77, p. Article number: 101925. Available at: https://eprints.qut.edu.au/236955/ (Accessed: 3 March 2024).
Kim, J., Giroux, M. and Lee, J.C. (2021) ‘When do you trust AI? The effect of number presentation detail on consumer trust and acceptance of AI recommendations’, Psychology & Marketing, 38(7), pp. 1140–1155. Available at: https://doi.org/10.1002/mar.21498.
Kumar, K. (1984) ‘Unemployment as a Problem in the Development of Industrial Societies: The English Experience’, The Sociological Review, 32(2), pp. 185–233. Available at: https://doi.org/10.1111/j.1467-954X.1984.tb00812.x.
Leary, M.R. and Hoyle, R.H. (2009) Handbook of Individual Differences in Social Behavior. Guilford Press.
Lin, M. et al. (1995) ‘Distributed network computing over local ATM networks’, IEEE Journal on Selected Areas in Communications, 13(4), pp. 733–748. Available at: https://doi.org/10.1109/49.382163.
Lotka, A.J. (1998) Analytical Theory of Biological Populations. Springer Science & Business Media.
Merhav, N. (2010) ‘Physics of the Shannon Limits’, IEEE Transactions on Information Theory, 56(9), pp. 4274–4285. Available at: https://doi.org/10.1109/TIT.2010.2053867.
Nguyen, Q.P. and Vo, D.H. (2022) ‘Artificial intelligence and unemployment:An international evidence’, Structural Change and Economic Dynamics, 63©, pp. 40–55. Available at: https://doi.org/10.1016/j.strueco.2022.09.003.
Park, Y.J. and Jones-Jang, S.M. (2023) ‘Surveillance, security, and AI as technological acceptance’, AI & SOCIETY, 38(6), pp. 2667–2678. Available at: https://doi.org/10.1007/s00146-021-01331-9.
Peters, M.A. and Jandrić, P. (2019) ‘Education and Technological Unemployment in the Fourth Industrial Revolution’, in G. Redding, A. Drew, and S. Crump (eds) The Oxford Handbook of Higher Education Systems and University Management. Oxford University Press, p. 0. Available at: https://doi.org/10.1093/oxfordhb/9780198822905.013.27.
Prooijen, J.-W. van (2017) The Moral Punishment Instinct. Oxford University Press.
Steichen, M. et al. (2018) ‘Blockchain-Based, Decentralized Access Control for IPFS’, in 2018 IEEE International Conference on Internet of Things (iThings) and IEEE Green Computing and Communications (GreenCom) and IEEE Cyber, Physical and Social Computing (CPSCom) and IEEE Smart Data (SmartData). 2018 IEEE International Conference on Internet of Things (iThings) and IEEE Green Computing and Communications (GreenCom) and IEEE Cyber, Physical and Social Computing (CPSCom) and IEEE Smart Data (SmartData), pp. 1499–1506. Available at: https://doi.org/10.1109/Cybermatics_2018.2018.00253.
Wu, T., Terry, M. and Cai, C.J. (2022) ‘AI Chains: Transparent and Controllable Human-AI Interaction by Chaining Large Language Model Prompts’, in Proceedings of the 2022 CHI Conference on Human Factors in Computing Systems. New York, NY, USA: Association for Computing Machinery (CHI ’22), pp. 1–22. Available at: https://doi.org/10.1145/3491102.3517582.