乐玩LEWIN官网主页

DeepSeek火爆海外,哪些国家对其更具包容心态?

发布时间:2026-01-14 23:10:20

在全球人工智能技能蓬勃开展的浪潮中,我国的人工智能草创公司DeepSeek推出的开源大模型DeepSeek-R1,凭仗一系列打破性的技能立异,成功招引了全球科技界的目光,成为当下AI范畴热议的焦点。

依据GitHub数据,DeepSeek-R1库房在发布24小时内星标数打破20万,创下AI项目历史纪录。据了解,R1的开源战略招引全球开发者共建生态,GitHub社区三周内衍生出300多个运用,包含法律文书生成、医疗形象剖析等范畴,展现出强壮的开发者生态招引力。而OpenAI的插件商铺仅有80余个产品,形成了鲜明对比。

与此一起,一些国家高举屡试不爽的隐私安全大棒,将其一禁了之;另一些国家开端赶紧研讨DeepSeek-R1的技能,企图从中攫取到能够为己所用的技能途径。

欧洲

欧洲历来对AI技能监管严厉。DeepSeek的分散也触发了多国对其数据安全和合规性的审视。

据路透社1月30日报导,法国监管组织国家信息与自在委员会30日表明,将对Deepseek进行问询,以便了解这家我国草创企业的人工智能体系是怎么运转的,以及或许存在的隐私危险。这家法国监管组织的一名发言人表明:“国家信息与自在委员会的AI部分现在正在剖析这一东西,意图是更好地了解这一体系的作业原理以及在数据维护方面是否存在危险。”

1月29日,意大利的苹果和谷歌运用商铺均无法下载DeepSeek。此前一天,意大利数据维护局要求DeepSeek供给有关个人数据运用方面的信息。

意大利数据维护组织30日表明,已屏蔽DeepSeek,理由是后者没有供给怎么运用个人数据的信息。它特别想了解DeepSeek收集了哪些个人数据,从哪些来历,出于什么意图,依据什么法律依据,以及这些数据是否存储在我国。

意大利数据维护局在其网站上表明,我国公司所给出的信息“被以为十分不充分”,因而该组织作出屏蔽决议,“旨在维护意大运用户的数据”。意大利数据维护局弥补说,该决议“当即收效”,并且该部分已针对DeepSeek打开查询。

爱尔兰数据维护委员会(DPC)也在29日发布声明称,已要求DeepSeek供给有关爱尔兰用户数据处理的信息。“DPC已致函DeepSeek,要求供给与爱尔兰数据主体相关的数据处理信息。

但实际上,产业界有一些不同的声响。路透社在3日的一篇报导中就说到,欧洲不少也在做人工智能技能的公司和团队,就在为DeepSeek的成功感到振作,由于我国的科研团队能够在芯片被约束和本钱有限的情况下,搞出这么一个直追美国同类产品的优异人工智能大模型,阐明他们这些在资金等条件上相同绰绰有余的欧洲团队,也有机会去完成这样的追逐。一些欧洲科技从业者还特别感谢DeepSeek把人工智能大模型的价格给打了下来,由于这样他们就能够在预算有限的情况下凭借DeepSeek完成他们的需求了。

亚太区域定见纷歧

据新加坡《联合早报》2月5日报导,澳大利亚以“国家安全”为由,制止在政府设备上运用我国大言语模型深度求索(DeepSeek)的服务。澳大利亚内政部长托尼·伯克2月4日在一份声明中表明,依据国家安全考量,一切DeepSeek产品、运用程序和服务将当即从政府体系中移除。伯克说,澳大利亚情报组织的要挟评价以为,DeepSeek相关技能将构成不行承受的危险。

据报导,伯克表明:“人工智能是一项充溢潜力和机会的技能,但假如咱们的组织发现存在国家安全危险,政府会坚决果断采纳举动。”伯克还宣称,堪培拉作出上述决议是依据危险评价,而非针对某个国家,旨在维护澳大利亚政府及其财物免受危险。

报导称,澳大利亚政府网络安全特使安德鲁·查尔顿以为,用户运用DeepSeek时上传的信息“或许无法被妥善维护”,并正告DeepSeek等运用“或许会让用户面对歹意软件的危险”。

太平洋的另一边,多家韩国公共组织和民营企业以忧虑我国产人工智能大模型“DeepSeek”引发所谓“过度收集用户信息”为由,发布DeepSeek禁令。

其间,韩国IT巨子Kakao近期发布内部公告,制止职工在作业中运用DeepSeek。这间隔Kakao宣告与美国OpenAI展开战略协作仅过一天,也是韩国大型IT企业初次禁用DeepSeek。

此外,韩移动运营商LG U+当天也制止在内联网运用DeepSeek,还主张职工尽量防止在个人电脑上运用DeepSeek,并提示运用该东西时勿输入“灵敏或重要的个人信息”。

公共组织方面,韩国水电与核电公司(水核电)已于1日发布DeepSeek禁令。在此之前,该公司已制止职工在作业中运用OpenAI公司的ChatGPT,以防核电相关材料和个人信息外泄。

另据悉,韩国查找门户NAVER正在研讨是否禁用DeepSeek。三星电子、SK、LG电子等首要大企业早已运用自研生成式AI模型,制止在公司电脑上装置未经同意的外部软件。

与韩国不同,依据朝日电视台5日的一档节目,日本AI专家今井翔太高度赞扬了DeepSeek的“开放性”。今井表明,DeepSeek以论文等方式公开了其技能原理、方法论和试验成果,让外界易于仿照。

2月6日,《日本经济新闻》宣告了关于日本生成AI领头学者松尾丰的采访。在被问及灵敏的安全问题时,松尾丰表明,这首先取决于用户运用的是DeepSeek的本地仍是在线服务。假如是本地服务,DeepSeek并不存在安全争议。假如是在线服务,这些数据的确将被传输到我国的服务器进行处理,在理论上,它也存在被用于练习的或许性。但是,松尾丰着重,这一点“与OpenAI没有本质区别”。

不久前,印度信息技能部长阿什维尼·维什瑙(Ashwini Vaishnaw)也称誉我国人工智能草创公司DeepSeek以其低本钱的人工智能帮手撼动了人工智能职业,并将这种节省的做法与印度政府树立本地化人工智能模型的尽力相联系。

依据Appfigures的数据显现(不包含我国的第三方运用商铺),DeepSeek App于1月26日登上苹果公司App Store全球下载榜第一,并自那时起继续坚持领先地位。数据显现,自运用发布以来,印度用户占有了悉数下载量的15.6%。

自 2020 年以来,印度以国家安全忧虑为由,制止了 300 多个与我国相关的运用程序和服务,包含 TikTok 和微信。维什瑙表明该国将在国内服务器上保管我国人工智能试验室的大型言语模型,其在一次职业会议上指出,经过在印度服务器上保管开源模型,能够处理 DeepSeek 的数据隐私问题。

美国对此爱情杂乱

当地时刻1月28日,美国多名官员回应DeepSeek对美国的影响,表明DeepSeek是“偷盗”,正对其影响展开国家安全查询。此外,美国海军依据“潜在安全和品德问题”,已要求人员防止以任何方式运用我国公司的DeepSeek模型。

当地时刻1月31日,美国得克萨斯州的州长、共和党籍政客格雷格·阿博特于签署行政令,宣告从当地政府具有的电子设备中封杀近来在美国爆火的我国的人工智能服务DeepSeek以及交际渠道小红书。

这一禁令使得克萨斯州成为了全美国第一个对DeepSeek和小红书进行封杀的区域,但很快就引起了不少美国网民的对立,有美国网友表明,得州的封杀令是无知和短视的。

依据Sensor Tower的研讨,该运用还在谷歌Play商铺美国区下载排行榜中位居第一,并自1月28日以来稳居该方位。Sensor Tower数据显现,DeepSeek在发布的前18天内累计下载量达1600万次,几乎是OpenAI ChatGPT推出同期下载量900万次的两倍。

当地时刻2月7日,美国总统特朗普表明,DeepSeek不会对国家安全构成要挟,美国终究能够从这家草创公司的人工智能立异中“获益”。“这是一项正在产生的技能……咱们将从中获益……它的本钱会下降许多。”

微软CEO纳德拉则在瑞士达沃斯举行的世界经济论坛上表明:“看到DeepSeek的新模型,无论是他们怎么真实有效地完成了一个开源模型来进行推理时刻核算,仍是核算功率方面,都令人形象深入。咱们应该十分认真地对待这一开展。”

现在,美国大型科技公司如微软、英伟达、亚马逊等已上线布置支撑用户拜访DeepSeek-R1模型。

美国彭博社在一篇文章中直言DeepSeek现已无法再被封杀。文章指出,DeepSeek与其他那些被美国封杀的我国科技产品有一个最大的不同,即DeepSeek的开发团队挑选了将其大模型开源,乃至还发布了论文,适当细致和透明地共享了他们是怎么建立这一大模型的——这意味着,即使美国能够封杀掉DeepSeek的手机和网页端的运用,DeepSeek的大模型、思路和代码都现已融入了全世界的人工智能社区,被包含美国在内的程序人员广泛运用。

在1月30日的财报发布会上,苹果CEO库克说到了DeepSeek并表明“(DeepSeek)前进功率的立异是一件功德。”要知道,为了能在我国尽早推出“苹果智能”服务,苹果正在尽力寻觅人工智能协作伙伴,DeepSeek是否会成为苹果在我国新的协作目标现在尚未可知。

结语  

DeepSeek独具匠心的开源形式,飞速推进着AI向前开展。它以高功率、低本钱的明显优势,赢得了广阔开发者与中小企业的喜爱。虽然一些国家企图经过约束办法来阻止其开展,但DeepSeek的开源代码与学术论文早已深深扎根于全球AI社区,成为其间不行或缺的一部分,仅凭单一方针底子无法阻断其强壮的技能影响力。

诚如我国互联网专家、Race Capital合伙人Edith Yeung在交际媒体上所言:“咱们理应在长城上举行一场科技晚宴,谈谈DeepSeek是怎么回事。”展望未来,DeepSeek有望在不断打破技能鸿沟的一起,进一步促进全球AI生态的昌盛与前进。

← 返回