AI大模型面临隐私泄露挑战:我们该如何应对?

AI快讯 7hours ago AICAT
0 0

  日前

  中国国家网络安全通报中心

  发布了一则公告

  指出35款移动应用存在

  违法违规收集与使用个人信息的情况

  其中

  多款AI助手赫然在列

AI大模型面临隐私泄露挑战:我们该如何应对?

  图源:“国家网络安全通报中心”微信公众号

 

  既要让AI“跑起来”

  又要确保AI合理“吃草”

  当我们在享受生成式AI应用时

  这些应用根据我们的个人偏好

  推荐内容或智能生成回复

  是否曾想过

  这些应用对我们的个人信息、

  使用习惯甚至情感倾向等数据

  进行收集和分析的方式

  是否符合相关法规呢?

AI大模型面临隐私泄露挑战:我们该如何应对?

  图源:36氪

  或许有人会觉得

  这些数据显得“无关紧要”

  不必过于担忧手机应用的

  数据收集和处理行为

  然而,这些看似“微不足道”的碎片数据

  通过技术的支持

  反而能够揭示出我们日常生活的轮廓

  自从ChatGPT、DeepSeek等

  生成式AI产品相继问世

  此类应用在全球迅速地得到了

  广泛的普及与应用

  而有关个人隐私保护的讨论

  也随之进入了生成式AI的领域

AI大模型面临隐私泄露挑战:我们该如何应对?

  图源:36氪

  业内相关技术专家指出

  生成式AI的技术特点之一

  在于其对海量数据的预训练

  数据量与生成结果的准确性之间

  存在着正相关关系

  因此,生成式AI应用

  具备依赖智能与数据驱动的特性

  因此面临更高的隐私泄露风险

  媒体报道指出

  此次通报中提到的35款APP

  许多产品背后的底层技术

  已经展现出了生成式AI、AI大模型等

  新兴技术的身影

 

  保障数据

  合法、透明及安全处理

  2024年12月

  意大利数据保护局(Garante)

  向OpenAI开出了

  高达1500万欧元的罚款

  公告中提到

  OpenAI在缺乏

  充分法律依据的情况下

  利用用户个人数据

  来训练ChatGPT模型

  这一行为违反了

  数据保护法规中关于透明度的原则

  并且未能有效告知用户

  他们的数据将如何被使用和处理

AI大模型面临隐私泄露挑战:我们该如何应对?

  图源:环球网

  最近,苹果公司

  就数字市场法案(DMA)

  中提出的互操作性要求

  向欧盟委员会发起了上诉

  这一要求迫使苹果

  必须与外部开发者共享用户信息

  苹果的发言人表示

  根据互操作性要求

  Meta、谷歌等多家公司

  已向苹果索取

  用户通知内容

  和存储的WiFi网络信息

  这将使他们能够获得

  苹果自身都无法查看的个人信息

  该公司认为

  这些要求迫使苹果

  放弃其知识产权

  并且对用户隐私造成损害

AI大模型面临隐私泄露挑战:我们该如何应对?

  图源:Pixabay

  法律专业人士提醒

  在网络安全及个人信息保护方面

  人工智能的技术及其应用

  不仅涉及个人信息的收集

  还包括内容安全、伦理等

  一系列重要课题

  应用程序违法收集个人信息

  表现形式多种多样

  应用程序的运营者需遵循

  相关法律对个人信息的收集与使用

  所提出的基本要求

  同时需要承担更多的社会责任

  主动强化隐私保护措施

  而消费者也应与时俱进

  提升隐私保护的意识与能力

 

  撰文:孔繁鑫  编辑:李飞  排版:常泽昱  统筹:李政葳

  参考:中国经营报、环球网、IT之家、36氪

个人信息保护新规:法律与社会责任的双重考量

来源:今日头条
原文标题:AI大模型,正面临更高隐私泄露风险?-今日头条-手机光明网
声明:
文章来自网络收集后经过ai改写发布,如不小心侵犯了您的权益,请联系本站删除,给您带来困扰,深表歉意!
Copyrights:AICAT Posted on 2025-11-04 9:46:58。
Please specify source if reproducedAI大模型面临隐私泄露挑战:我们该如何应对? | AI工具导航
广告也精彩

No comments

No comments...