作者:
云原生技术蓬勃发展,已成为赋能企业业务创新的重要推动力。Gartner报告指出,2022年将有75%的全球化企业会在生产中使用云原生的容器化应用。到2025年,超过95%的新云工作负载将部署在云原生平台上。
但不可忽视的是,云原生在创造效益的同时,也在重塑整个应用生命周期,由此带来了新的应用安全隐患。
云原生应用变革带来三大安全风险:传统应用安全风险,API安全风险,业务安全风险
云原生呼唤新型应用安全技术:
随着云原生技术应用的普及,在未来数年内,云原生架构带来的风险将成为攻击者关注和利用的重点,传统基于边界的防护模型已不能完全满足云原生的安全需求。
面对云原生架构带来的三类安全风险,同时需要打造覆盖Web、APP、云原生应用和API资产的主动防护体系。
云原生给业务带来敏捷积极影响的同时,也带来了全新的安全挑战,企业需要不断更新安全理念、采用多维度、多技术提高安全的包容性,并将安全策略和业务结合起来优化,才能真正将云原生安全落地。
根据 IDC 发布的最新数据,2023 年,全球网络安全解决方案和服务支出预计达到 2190 亿美元,相比 2021 年增长了 12.1%。未来几年,在网络攻击持续威胁、企业对安全混合工作环境的需求,以及满足数据隐私和治理需求的推动下,预计到 2026 年,与网络安全相关的硬件、软件和服务的投资将达到近 3000 亿美元。
安全软件将成为实体组织最主要的网络安全支出,占全年所有安全支出的近一半,其中最热门的投资是端点安全,其次是身份和数字信任软件、网络安全分析、威胁情报、响应和编排软件。
亚太地区将是 2023 年安全支出第二大的地区。值得一提的是,预计中国在 2021-2026 年的预测期内实现最快的支出增长,五年复合年增长率为 18.8%。
在云和容器大规模部署扩张、对资源远程访问的需求增加,以及隐私和数据保护的合规要求等因素下,2026 年,几乎所有行业网络安全市场都将保持超过两位数的高速增长,安全产品和服务的支出增速将持续超过整体 IT 支出的增长,数字化成熟的行业和大型企业的网络安全支出增长将超过平均水平。
根据Cybernews的研究,娱乐业巨头Lionsgate公司泄露了用户的IP地址和他们在其电影流媒体平台上观看的内容的信息。
在调查过程中,研究人员发现,视频流平台Lionsgate Play通过一个开放的ElasticSearch实例泄露了用户数据。Cybernews研究团队发现了一个未受保护的20GB的服务器日志,其中包含近3000万个条目,其中最早的是2022年5月。这些日志暴露了用户的IP地址、操作系统和网络浏览记录等用户数据。
研究人员还发现了记录在案的HTTP GET请求的不明哈希值,这是客户提出的请求的记录,通常用于从网络服务器获取数据:当这些请求被提出时,它们被存储在服务器的日志文件中。
随着使用数据的增加,攻击者可以确定行为模式,并可能利用这些信息来制作更准确、更有针对性的网络钓鱼攻击。
人工智能开发商OpenAI公司最近发布的ChatGPT-4又震惊了世界,但它对数据安全领域意味着什么,目前还没有定论。一方面,生成恶意软件和勒索软件比以往任何时候都更容易。在另一方面,ChatGPT也可以提供一系列新的防御措施用例。
行业媒体最近采访了一些世界顶级的网络安全分析师,他们对2023年ChatGPT和生成式人工智能的发展进行了以下预测:
ChatGPT将降低网络犯罪的门槛。
制作令人信服的钓鱼邮件将变得更容易。
企业将需要了解人工智能技术的安全专业人员。
企业将需要验证生成式人工智能输出的内容。
生成式人工智能将升级现有的威胁。
企业将定义对ChatGPT使用的期望。
人工智能将增强人类的能力。
企业仍将面临同样的原有威胁。
ChatGPT已经可以成为一个合格的商业化个人助理,但它的未来远不止如此。对这样的技术,需要积极拥抱,考虑尽快学习用上这一技术。
目前,企业的零信任安全建设已从理论和技术探索阶段,正式迈入了零信任的应用实践和快速发展阶段。而根据NIST的定义:零信任安全是一种覆盖端到端安全性的网络安全体系,包含身份、访问、操作、终端、与基础设施环境。其中,端点安全将是企业零信任体系建设的重要部分。
由于端点设备承载着企业组织大量业务数据的产生、使用和流转,随着其应用的多样化和复杂化,特别是云上端点应用的大量增加,导致了企业端点安全威胁态势不断恶化,企业安全运营团队面临着比预期中更大的安全挑战。
2023年,企业在零信任安全建设中,只有进一步提升端点安全的防护能力,才能确保整体建设目标的实现。
1.确定身份优先的安全原则
2.实现持续的监控和验证
3.自动化的漏洞管理与端点弹性
4.端点隔离与攻击面管理
5.向一体化安全能力演进
传统端点安全技术由于面临全面性、兼容性、智能化等应用挑战,正在被新的防护需求与理念重新定义。企业应该根据零信任框架要求和最小化访问授权原则,推动新一代端点安全的能力建设与应用优化。
如今,现代的业务运营只有通过频繁的文件传输才能实现。随着人们在数字领域的不断扩展和工作习惯的改变,这种做法变得更加普遍。数据传输虽然高效,但也会给安全性和可信度带来风险。
识别和分类最敏感的数据:
在企业的服务器传输任何数据之前,应该评估它对业务的影响。
始终进行备份:
企业应该将关键数据以多种形式存储在多个位置,其物理存储介质包括固态硬盘、SD卡和U盘,企业需要采取措施加密数据并保持硬盘的物理安全。
建立文件访问层次结构:
企业的数据具有分层结构,使用类似的方法进行数据访问同样有效。建立定义每个用户的许可级别和相关特权的协议非常重要。
部署密码管理系统:
如果企业的密码容易受到攻击和窃取,那么采用的安全措施就毫无价值。
对员工进行安全培训:
企业需要建立一个安全培训制度,向员工传授有关文件传输实践的知识。
确保在线传输过程中的数据安全是企业的首要任务。网络攻击的数量正在增加,但企业并非无能为力。将有效的安全实践落实到位为成功传输数据奠定了基础。简化这些程序,并对员工不遵守这些程序面临的风险进行教育,可以保证这一点。
GPT-4的发布,在全球范围再一次掀起AI技术应用的热潮。与此同时,一些知名计算机科学家和科技业界人士也对人工智能技术的快速发展表示了担忧,因为这对人类社会存在着不可预知的潜在风险。
北京时间3月29日,由特斯拉公司CEO 埃隆·马斯克,图灵奖得主约书亚·本吉奥(Yoshua Bengio),苹果联合创始人瓦兹尼亚克(Steve Wozniak),以及《人类简史》作者尤瓦尔·赫拉利等人联名签署了一封公开信,呼吁全球所有AI实验室立即暂停训练比GPT-4更强大的AI系统,为期至少6个月,以确保人类能够有效管理其风险。如果商业型的AI研究组织不能快速暂停其研发进程,各国政府应该采取有效监管措施实行暂停令。
在这封公开信中,详细表述了暂停AI模型训练的理由:AI技术已经强大到能和人类进行某些方面的竞争,将给人类社会带来深刻的变革。因此,所有人都必须思考AI的潜在风险:假新闻和宣传充斥信息渠道、大量工作被自动化取代、人工智能甚至有一天会比人类更聪明、更强大,让我们失去对人类文明的掌控。只有当我们确信强大的人工智能系统的影响将是积极的,其风险将是可控的时候,才应该继续开发和训练它们。
截至今天中午11点,这份公开信已经征集到1344份签名。
各大科技公司是否真的过快推进了AI技术,并有可能威胁人类的生存呢?AI技术需要政府和社会共同参与监管,用户反馈和规则制定对抑制AI的负面影响非常重要。如果连AI系统的制造者也并不能完全理解、预测和有效控制其风险,而且相应的安全计划和管理工作也没有跟上,那么目前的AI技术研发或许确实已陷入了“失控”的竞赛态势。