ChatGPT可能应用于哪些金融场景?( 二 )


在网上,有人向ChatGPT提问——银行业如何才能最好地使用ChatGPT技术?对此,ChatGPT回答称:银行业可以通过多种方式使用ChatGPT技术来改善运营并为客户提供更好的服务 。
例如,ChatGPT可用于自动化客户服务任务,回答常见问题或提供有关产品和服务的详细信息 。这可以让客户服务代表腾出时间专注于更复杂或高价值的任务,从而提高整体效率和客户满意度 。此外,ChatGPT可用于从大量数据中生成见解和分析,使银行能够快速轻松地获得对其运营的宝贵见解,并做出更明智的决策 。未来,ChatGPT技术可能会变得更加强大和通用,从而使银行能够将其用于更广泛的任务和应用程序 。
张杰强调,“在金融应用场景下不是简单的闲聊,机器人不仅要模拟真人回复,还要有领域知识的注入,要兼顾答案的准确性和可控性,不能‘一本正经地胡说八道’ 。”从ChatGPT撰写的医美行业研究报告也不难看出,该技术还有待完善,或者说还不能独立使用,而是需要人工配合 。一位银行的技术负责人向21世纪经济报道采访人员表示,“ChatGPT在金融场景的应用真正落地,也许还需要2-3年之久 。”
正如ChatGPT所说,ChatGPT等人工智能语言模型无疑是一项重要的科技成果,但同时面临着一些挑战和风险 。据其所言,ChatGPT是基于巨大的数据集训练出来的,这意味着它在回答问题可能存在偏见和错误;ChatGPT以及其他类似的模型可能被用于恶劣的,例如传播虚假信息和滥用个人信息 。
虎符智库研究员李建平告诉采访人员,如同其他人工智能模型一样,ChatGPT是把双刃剑,既可以是提升效率的工具,解答人们的各种问题、创造出大学水平论文,甚至编写代码 。同时也可能被绕过安全机制,用于实施有害的活动 。比如,对网络安全行业来说,既可以用来编写网络钓鱼、生成恶意软件、开展社工攻击,也成为网络防御者的有力工具 。因此,我们看到ChatGPT相继被不少机构封禁(Stack Overflow、高校、顶级协会等),部分原因是模型目前仍然会生成一些虚假错误内容,并且难以辨别 。
对于如何规避ChatGPT所带来的安全问题,他认为,从安全防护的角度来看,ChatGPT的运营机构需采取针对性的应对措施 。对ChatGPT等类似模型进行培训,标记恶意的活动和恶意代码,避免其向恶意人员提供;同时对ChatGPT设置难以绕过护栏,提升恶意人员利用其生成恶意内容、开展恶意活动的门槛 。




推荐阅读