sparkstreaming实时计算 spark实时处理
大数据专业主要都要学哪些知识?
数据科学与大数据技术,强调交叉学科特点,以大数据分析为核心,以统计学、计算机科学和基于CB、CF,归一法,Mahout应用。数学为三大基础支撑性学科,培养面向多层次应用需求的复合型人才。大数据需要学什么?. 1. Ja编程技术. Ja编程技术是大数据学习的基础,Ja是一种强类型语言,拥有极高的跨平台能力,可以编写桌面应用程序、Web应用程序、分布式系统和嵌入式系统应用程序等,是大数据工程师最喜欢的编程工具,因此,想学好大数据,掌握Ja基础是必不可少的! 对于大数据开发通常是在Linux环境下进行的,相比LiNB、SVMnux作系统,Windows作系统是封闭的作系统,开源的大数据软件很受限制,因此,想从事大数据开发相关工作,还需掌握Linux基础作命令。
sparkstreaming实时计算 spark实时处理
sparkstreaming实时计算 spark实时处理
如何学习Spark API
Spark 是专为大规模数据处理而设计的快速通用的计算引擎。其实spark的核心就是RDD,只要你知道所有在RDD上的作才会被运行在cluster上就好了。其他的和正常的编程没啥区别。至于API,真要学也就是扫一下目录看看都有啥class就行了,用的时候在深入。尽管Spark本身是用Scala写的,但你可以用一些API使得你的工作容易些。如果你用过Python或总结者Scala的shells,那么你就已经在用这些语言的API了。你需要做的就是将你的程序保存为脚本而仅需很少的修改。
大数据培训主要学什么如果你在寻找构建更加健壮的程序,你可以使用Ja API。即使你已经用Ja完全实现了你的程序,你仍然可以在shell中勾画出的你的想法以确保在将其部署到你的集群之前你的算法是正确的。Spark发行了一些库:Spark SQL,Spark Streaming(建立在Spark上的实时计算框架),the MLlib machine learning library(机器学习库)和GraphX。
你可以通过使用一些易用的API来构建复杂的应用并且实时部署它们。你甚至可以以混合和匹配技术来构建应用程序或者大数据管道,例如从机器学习的结果生成图的应用。由 Hadoop平台支持的 Apache Spark 提供了强大和灵活性。通过完全支持Spark栈的MapR分布,对程序员很容易地实时创建一个复杂的大数据应用是可能的,就像批处理数据等等。
大讲台,的Hadoop在线学习平台
请简要描述一下hadoop,spark,mpi三种计算框架的特点以及分别适用于什么样的场景
当然,大家也不要过于担心。大数据虽然需要学习有关统计和计算机知识,但只要态度认真,按时按量地完成老师布置的任务,用心消化课堂学到的知识,再多多加以实际运用,大数据分析和挖掘还是很容易上手的。通过培训一般对于基础较好的学员,三个月左右就可以走上工作岗位了。hadoop包括hdfs、1、大数据(big data),指无法在一定时间范围内用常规软件工具进行捕捉、管理和处理的数据,是需要新处理模式才能具有更强的决策力、洞察发现力和流程优化能力的海量、高增长率和多样化的信息资产。mapreduce、yarn、核心组件。hdfs用于存储,mapreduce用于计算,yarn用于资源管理。
spark包括spark sql、saprk mllib、spark streaming、spark 图计算。saprk的这些组件都是进行计算的。spark sql离线计算,spark streaJa,大数据基础:Linux基础、Men基础ming 流计算,spark mllib机器学习。
mpi高性能计算。
hahoop只有mapreduce是和spark一样用来计算,要比较的话,只能比较mapreduce与spark区别。mapreduce叠代计算中间结果放在磁盘,适合大数据离线计算。spark技术先进,统一使用rdd,结果可放在内存,pipeline,计算速度比mapreduce快。
建议大数据存储使用hadoop的hdfs,资源管理用hadoop的yarn,计算使用spark或mpi
spark可视化要解决的问题
14、Flume针对普通客户端浏览和分析大数据困难的问题, 结合 Spark 和 LOD 技术, 以热图为例提出一种面向大数据可视化技术框架. 首先利用 Spark 平台分层并以瓦片为单位并行计算, 然后将结果分布式存储在 HDFS 上, 通过web 应用Ajax技术结合地理信息提供各种时空分析服务.文中重点解决了数据点位置和地图之间的映射, 以及由于并行计算导致的热图瓦片之间边缘偏这2个问题.实验结果表明,该方法将数据交互作与数据绘制和计算任务分离, 为浏览器端大数据可视化提供了一个新的思路.
一般大数据的学习方式有两种:目前大数据可视化面临的主要问题包括:
并行计算1) 数据复杂散乱. 经常发生数据缺失、数据值不对、结构化程度不高.
3) 构建复杂工作流困难. 从多数据源取得包含各种不同特征的原始数据,然后执行机器学习算法或者复杂查询, 探索过程漫长.
4) 受到原有技术限制, 对小规模数据分析很难直接扩展到大数据分析.
5) 数据点的规模超过普通显示器可能提供的有效像素点.
相关工作
面向 web 的轻量级数据可视化工具主要是一些JaScript库,利用canvas或者svg画散点,svg不能支持十亿以上的,使用 canvas 画布绘图的heatmap.js 在面对大数据量时也无能为力.
热图是一种常用的基本数据可视化技术,通常用颜色编码数值大小,并以矩阵或方格形式整齐排列,在二维平面或者地图上呈现数据空间分布,被广泛应用在许多领域.近年来,许多研究者成功地将热图应用在眼动数据可视分析上, 有效地概括并表达用户视觉注意力的累计分布
LOD针对数据可视化绘制速度慢、效率低等问题,孙敏等提出基于格网划分的LOD(llsofdetail)分层方法, 实现对大数据集 DEM 数据的实时漫游.
并行计算大数据热图
经纬度换算
在 Spark 平台上实现热图的绘制,首先将经纬度坐标转换为对应不同瓦片上的像素坐标.每个基站的辐射范围可近似认为相同, 即每个基站(收集数据的基站坐标)的初始影响力近似相同,因此可采用影响力叠加法将数据点绘制到画布上,然后做径向渐变,叠加出每个位置的影响大小,得到初始灰度图,如图2a所示.然后将每一个像素点着色,根据每个像素的灰度值大小,以及调色板将灰度值映射成相对应的颜色. 图 2b 是一个透明的PNG 格式, 调色板如图 2c 所示. 本文中出现的热图均采用图 2c 调色板.
image_1bv9vh4oqfatb5a12s4ui1e9.png-185.9kB
将计算出的热图结果存储在HDFS上,并与经纬度以及层级建立索引关系方便以后读取,拼接后的热图绘制效果如图 3 所示.
image_1bv9vj0vb16um1ptqrs17bh1jam9.png-128kB
瓦片边缘问题
image_1bv9vno7315gi1l1r1gog1cdg1tdnm.png-34.6kB
边缘热点可能处于2片或者4片瓦片之间,因此需要通过2次或者4次重复计算.通过本文提出的重叠计算方法可以解决热图分片计算的边缘问题。
实验
image_1bv9vr8311fe817tt11bb22qlr113.png-284.2kB
大数据生态技术体系有哪些?
根据2016年大数据产业峰会发布的数据,2015年我国大数据市场规模1692亿元,同比增长63.07%,处于快速发展期,预计2020年市场规模将达到13626亿元,“十三五”期间年复合增速将到达51.8%。大数据市场稳步增长,一方面促进了大数据与各行业的紧密融合,一方面也推动了大数据培训行业的发展。1、大数据生态技术体系——Hadoop 由Apache基金会开发的分布式系统基础设施。Hadoop框架的核心设计是HDFS和MapReduce。HDFS提供海量数据的存储,MapReduce提供海量数据的计算。Hadoop是一个基本框架,它可以托管许多其他东西,比如Hive。不想用编程语言开发MapReduce的人可以使用Hive进行离线数据处理和分析。例如,HBase作为面向列的数据库在HDFS上运行,而HDFS缺乏读和写作,这就是为什么HBase是一个分布式的、面向列的开源数据库。
设置的并行度,可以让一个ExecJobVertex 对应 多个并行的ExecVertex 实例。2、大数据生态技术体系——的火花 也是一个开源项目Apache基金会的另一个重要的分布式计算系统开发的加州大学伯克利分校的实验室。的火花和Hadoop的区别是Hadoop使用硬盘来存储数据,而火花使用内存来存储数据,因此火花可以提供超过100次的计算速度。Spark可以通过YARN(另一个资源协调器)在Hadoop集群中运行,但是Spark现在也在进化成一个生态过程,希望通过一个技术栈实现上下游的集成。例如,Spark Shark VS Hadoop Hive, Spark Streaming VS Storm。
3、大数据生态技术体系——风暴 是一个由BackType团队作为Apache基金会孵化器开发的分布式计算系统。它提供了基于Hadoop的实时计算特性,可以实时处理大型数据流。与Hadoop和Spark不同,Storm不收集和存储数据。它通过网络直接实时接收和处理数据,然后通过网络直接实时返回结果。Storm擅长直播。例如,日志,就像网络购物的点击流一样,是连续的、连续的、永远不会结束的,所以当数据通过像Kafka一样的消息队列传入时,Storm就会发挥作用。Storm本身并不收集或存储数据,而是在数据到达时进行处理,并在运行时输出数据。
上面的模块只是基于大型分布式计算的通用框架,通常由计算引擎描述。 除了计算引擎,我们还需要IDE开发、作业调Flink TaskMar 是由几个内部组件组成的:actor 系统(负责与 Flink 协调)、IOMar(负责将数据溢出到磁盘并将其读取回来)、MemoryMar(负责协调内存使用。度系统、大数据同步工具、BI模块、数据管理、和报警等平台工具。与计算引擎一起,形成了大数据的基础平台。
在这个平台上,我们可以做基于数据的大数据处理应用,开发大数据应用产品。 大数据生态技术体系是什么?大数据工程师掌握这些就够了除了计算引擎,我们还需要一些平台工具,如IDE开发、作业调度系统、大数据同步工具、BI模块、数据管理、和报警等,你能处理好吗?如果您还担心自己入门不顺利,可以点击本站其他文章进行学习。
大数据培训需要多长时间?难不难学
本文提出的大数据热图可视化方法能够有效地解决前端绘制计算量大的问题,通过在Spark平台上以瓦片为单位分层次并行计算热图, 将生成的热图存储在HDFS上,然后通过web提供浏览器交互服务, 用户可以通过在地图上拖动鼠标或放大/缩小等作选择感兴趣区域,再分析不同时间点用户行为异或渐变过程. 通过解决热图数据点和地图映射关系问题以及瓦片热图之间的边缘问题,提供大数据热图绘方法, 以满足用户交互、协同和共享等多方面需求.该方法可以拓展到其他常用可视化方法,如ScatterPlot, Bar Chart,平行坐标等.但绘制过程是基于Spark计算后得到的离线数据,在实时性上还不能得到保证, 在下一步工作中, 我们将着手利用 Spark Streaming 库来解决这一问题.感谢您对大数据培训的关注以及对千锋教育的关注。作为一家专注于IT互联网技术培训的机构,千锋教育致力于帮助学员获得实际应用能力并成功就业。以下是关于这个问题的回答:
JobMar 主要负责调度 Job 并协调 Task 做 checkpoint,职责上很像 Storm 的 Nimbus。从 处接收到 Job 和 JAR 包 等资源后,会生成优化后的执行,并以 Task 的单元调度到各个 TaskMar 去执行。线下脱产学习,线上视频教学。如果是0基础学员参加线下脱产班学习的话,大多数培训机构都是6个月左右的周期。
大数据的学习有一定难度,对于0基础的小白来说,一定要细心、耐心,认真听课,多多练习。大数据的薪资待遇是比较可观的,目前大数据开发还是以技术为主,大数据需要学习hadoop、spark、storm、超大集群调优、机器学习、并发编程等,加米谷的具体如下:
Hbase分布式数据 库+Hive分布式数据仓库
FlumeNG分布式数据采集系统+Sqoop大数据迁移系统
Scala大数据黄金语言+kafka分布式总线系统
SparkCore大数据计算基石+SparkSQL数据挖掘利器+SparkStreaming流式计算平台
SparkMllib机器学习平台+SparkGraphx图计算平台
大数据项目实战
接受技能培训,当然会关注培训的时间跨度。如果告诉你,大数据培训需要一年的时间,相信很多人都会望而却步,除了在校生,谁还会有一年的时间和精力参加培训?
对于一般的数据分析培训课程而言,所学内容基本可以分为理论知识和专业工具两类。包括:1、需要有应用数学、统计学、数量经济学专业本科或者工学硕士层次水平的数学知识背景。 2、至少熟练SPSS、STATISTIC、Eviews、SAS等数据分析软件中的一门。 3、至少能够用Acess等进行数据库开发; 4、至少掌握一门数学软件:matalab,mathmatics进行新模型的构建。 5、至少掌握一门编程语言。
大数据培训学习时间一般是在4个月-5个月,每家机构有所不同,难易程度也不同,根据每个人的基础不同可能会有所别。如需大数据培训选择【达内教育】。
1、大数据培训大约需要一年的时间。
2、对于一般的数据分析培训课程而言,所学内容基本可以分为理论知识和专业工具两类。
包括:
(1)需要有应用数学、统计学、数量经济学专业本科或者工学硕士层次水平的数学知识背景。
(2)至少熟练SPSS、STATISTIC、E如果你是零基础,那培训大数据的时间大概在6个月左右的时间,如果你是有基础的,那学习时间就会短一些,因为大数据需要学习的东西很多,涉及到的知识点广泛,时间短的话学不会这么多专业知识。希望可以帮到你。views、SAS等数据分析软件中的一门。
(3)至少能够用Acess等进行数据库开发。
(4)至少掌握一门数学软件:matalab,mathmatics进行新模型的构建。
(5)至少掌握一门编程语言。
延展如下:
2、在维克托·迈尔-舍恩伯格及肯尼斯·库克耶编写的《大数据时代》中大数据指不用随机分析法(抽样调查)这样捷径,而采用所有数据进行分析处理。大数据的5V特点(IBM提出):Volume(大量)、Velocity(高速)、Variety(多样)、Value(低价值密度)、Veracity(真实性)。
一般要4个月,以下是部分课表,可看下
1.一般的培训机构都是4个月的大数据培训课程,但是学好大数据必须要有非常扎实的基本功,所以如果你的基本功不扎实,或者是零基础,我建议你去一些培训时间比较长的机构,打好基础对以后的就业有着非常大的帮助,我知道的飞_马_训练营的培训是5个月,而且是小班授课,可以做到每个学生都能与老师面对面沟通。
2.关于就业的话,现在很多机构都有着自己合作的一些企业,但是能否在企业发展还是看你有没有扎实的基础,所以视频授课的机构是一定不能考虑的,因为你根本无法与老师面对面讲述遇到的问题,选择学习的机构也要好好考虑。
祝你学习愉快!望采纳!
难易程度:根据每个人基础不同,可能会有所别,就拿光环大数据来说:他们的全日制班,需要学习4.5个月,基本面对的对象都是0基础;周末班,面对的对象都是2-3年有基础的,
如何学习Spark API
ReceiverTracker在启动Receiver的时第四阶段:Hbase理论与实战。Hbase。安装与配置。hbase的数据存储。项目实战。候他有ReceiverSupervisor,其实现是ReceiverSupervisorImpl, ReceiverSupervisor本身启 动的时候会启动Receiver,Receiver不断的接收数据,通过BlockGenerator将数据转换成Block。定时器会不断的把Block数据通会不断的把Block数据通过BlockMar或者WAL进行存储,数据存储之后ReceiverSupervisorlmpl会把存储后的数据的元数据Metadate汇报给ReceiverTracker,其实是汇报给ReceiverTracker中的RPC实体ReceiverTrackerEndpoin其实spark的核心就是RDD,只要你知道所有在RDD上的作才会被运行在cluster上就好了。其他的和正常的编程没啥区别。至于API,真要学也就是扫一下目录看看都有啥class就行了,用的时候在深入。尽管Spark本身是用Scala写的,但你可以用一些API使得你的工作容易些。如果你用过Python或者Scala的shells,那么你就已经在用这些语言的API了。你需要做的就是将你的程序保存为脚本而仅需很少的修改。
如果你在寻找构建更加健壮的程序,你可以使用Ja API。即使你已经用Ja完全实现了你的程序,你仍然可以在shell中勾画出的你的想法以确保在将其部署到你的集群之前你的算法是正确的。Spark发行了一些库:Spark SQL,Spark Streaming(建立在Spark上的实时计算框架),the MLlib machine learning library(机器学习库)和GraphX。
你可以通NN、Tensorflow过使用一些易用的API来构建复杂的应用并且实时部署它们。你甚至可以以混合和匹配技术来构建应用程序或者大数据管道,例如从机器学习的结果生成图的应用。由 Hadoop平台支持的 Apache Spark 提供了强大和灵活性。通过完全支持Spark栈的MapR分布,对程序员很容易地实时创建一个复杂的大数据应用是可能的,就像批处理数据等等。
大讲台,的Hadoop在线学习平台
大数据专业主要学什么 有哪些课程
大数学习时间:一般都是4个月-5个月,每家机构有所不同据开设课程
数学分析、高等代数、普通物理数学与信息科学概论、数据结构、数据科学导论、程序设计导论、程序设计实践、离散数学、概率与统计、算法分析与设计、数据计算智能、数据库系统概论、计算机系统基础、并行体3:对于小型的项目,并且需要低延迟的场景,建议使用storm系结构与编程、非结构化大数据分析等。
大数据的学习阶段
阶段:大数据前沿知识及hadoop入门,大数据前言知识的介绍,课程的介绍,Linux和unbuntu系统基础,hadoop的单机和伪分布模式的安装配置。
第二阶段:hadoop部署进阶。Hadoop集群模式搭建,hadoop分布式文件系统HDFS深入剖析。使用HDFS提供的api进行HDFS文件作。Mapreduce概念及思想。
第三阶段:大数据导入与存储。mysql数据库基础知识,hive的基本语法。hive的架构及设计原理。hive部署安装与案例。sqoop安装及使用。sqoop组件导入到hive。
第五阶段:Spaer配置及使用场MapReduce分布式计算模型+Yarn分布式资源管理器+Zookeeper分布式协调服务景。scala基本语法。spark介绍及发展历史,spark stant a lone模式部署。sparkRDD详解。
spark式跑是什么
Hadoop和Spark先后成为大数据分析工业界的研究热点,前者是一个能够对大量数据提供分布式处理的软件框架和文件系统(hadoopdistrib-utedfile,HDFS);后者是一个通用大数据计算平台,可以解决大数据计算中的批处理、 交互查询及流式计算等核心问题.Zeppelin可以作为Spark的解释器,进一步提供基于 Web 页面的数据分析和可视化协作可以输出表格、柱状图、折线图、饼状图、点图等,但是无法提供更为复杂的交互分析手段.用ApacheSpark进行大规模数据处理的方式。Spark是一个快速、通用、可扩展的分布式计算系统,它提供了丰富的API和工具,可以处理各种类型的数据,包括结构化数据、半结构化数据和非结构化数据。Spark式跑是指使用ApacheSpark进行大规模数据处理和分析的一种方式。Spark式跑的特点是通过将数据分布在集群中的多个上进行并行计算,以实现高效的数据处理和分析。它支持多种编程语言,如Scala、Ja和Python,并提供了丰富的库和算法,如Spar4、HDFS1.0/2.0kSQL、SparkStreaming和MLlib,使得开发人员可以方便地进行数据处理、机器学习和实时流处理等任务。
Flink 将对象序列化为固定数量的预先分配的内存段,而不是直接把对象放在堆内存上。Flink 原理详解
流处理是处理一条,立马下一个会从缓存中取出,在下一个进行计算
流处理的优点是低延迟 批处理的优点是高吞吐
flink同时支持两种,flink的网络传输是设计固定的缓存块为单位,用户可以设置缓存块的超时值来决定换存块什么时候进行传输。 数据大于0 进行处理就是流式处理。
如果设置为无限大就是批处理模型。
Flink 集群包括 JobMar 和 TaskMar .
TaskMar 在启动的时候就设置好了槽位数(Slot),每个 slot 能启动一个 Task,Task 为线程。从 JobMar 处接收需要 部署的 Task,部署启动后,与自己的上游建立 Netty 连接,接收数据并处理。
SparkStreaming 是将流处理分成微批处理的作业, 的处理引擎是spark job
Spark Streaming把实时输入数据流以时间片Δt (如1秒)为单位切分成块,Spark Streaming会把每块数据作为一个RDD,并使用RDD作处理每一小块数据。每个块都会生成一个Spark Job处理,然后分批次提交job到集群中去运行,运行每个 job的过程和真正的spark 任务没有任何区别。
JobScheduler, 负责 Job的调度通过定时器每隔一段时间根据Dstream的依赖关系生一个一个DAG图
ReceiverTracker负责数据的接收,管理和分配
spark on yarn 的cluster模式, Spark client 向RM提交job请求, RM会分配一个 AppMaster, driver 和 运行在AppMAster里, AM然后把Receiver作为一个Task提交给Spark Executor , Receive启动接受数据,生成数据块,并通知Spark App, AM会根据数据块生成相应的Job, 并把Job 提交给空闲的 Executor 去执行。
1:需要关注流数据是否需要进行状态管理
2:At-least-once或者Exectly-once消息投递模式是否有特殊要求
4:如果你的项目已经使用了spark,并且秒级别的实时处理可以满足需求的话,建议使用sparkStreaming
Flink 提供的Api右 DataStream 和 DataSet ,他们都是不可变的数据,不可以增加删除中的元素, 通过 Source 创建 DataStream 和 DataSet
在创建运行时有:
source 和 算子map 如果是 one by one 的关系,他们的数据交换可以通过缓存而不是网络通信
同一个任务可以共享一个slot, 不同作业不可以。
这里因为 Source 和 Map 并行度都是4 采用直连方式,他们的数据通信采用缓存形式
所以一共需要两个TaskMar source,Map 一个,reduce一个, 每个TaskMar 要3个slot
JobMar 将 JobGraph 部署 ExecutionGraph
Flink通过状态机管理 ExecGraph的作业执行进度。
数据源:
Sink:
时间:
处理时间:取自Operaflink on yarn 是由client 提交 app到 RM 上, 然后RM 分配一个 AppMaster负责运行 Flink JobMar 和 Yarn AppMaster, 然后 AppMaster 分配 容器去运行 Flink TaskMangertor的机器系统时间
时间: 由数据源产生
进入时间: 被Source观察时的系统时间
如果数据源没有自己正确创建水印,程序必须Python:基础语法,数据结构,函数,条件判断,循环等基础知识。自己生成水印来确保基于5:要求消息投递语义为 Exactly Once 的场景;数据量较大,要求高吞吐低延迟的场景;需要进行状态管理或窗口统计的场景,建议使用flink的时间窗口可以正常工作。。
DataStream 提供了 周期性水印,间歇式水印,和递增式水印
数据挖掘培训有用吗?
批处理是只有处理一批完成后,才会经过网络传输到下一个如果参加大数据培训,在3个多月的时间里,老师会给学生讲很多大数据技术,并且带着学生做项目,毕业之后掌握的技术肯定是要比同期没有培训过的人要多的多。所以,如果打算从事大数据行业的话,是先进行一下培训,然后再去工作。
第六阶段:spark大数据分析原理。spark内核,基本定义,spark任务调度。sparkstreaming实时流计算。sparkmllib机器学习。sparksql查询。参加大数据培训了,在3个多月的时间里,老师会给你讲很多大数据技术,并且带着你做项目,毕业之后你掌握的技术肯定是要比同期没有培训过的人要多的多。所以,建议大家如果打算从事大数据行业的话,是先进行一下培训,然后再去工作。 大数据培训都有哪些内容呢? 对于那些刚接触大数据的同学应该会听说过大数据培训机构,那为什么学校讲了大数据的课程了,还需要参加大数据培训呢?下面给大家分析一下。 大数据是新兴行业,大数据技术也是前沿技术,很少有大学开设这门课程,就算有,也是很基础很基础的大数据技术,这点对于用人单位是远远不够的,他们需要的大数据企业级的人才,需要掌握很多知识,如果你掌握了Hadoop、MapReduce、Hive数据仓库、spark生态体系,Spark Streaming、storm实时计算、zookeeper等内容,找一份的共工作是完全没有问题的,而这些技术,在学校里面是学不到的,很多培训机构也很难讲这么多这么深入,你只有通过参加专业的大数据培训,才可以学习到这些内容,才能获得真实项目经验,这也是为什么参加了大数据培训的同学,要比没有参加大数据培训的同学薪水高很多的原因了。
Flink 是一个流处理框架,支持流处理和批处理,特点是流处理有限,可容错,可扩展,高吞吐,低延迟。有用啊,培训完,就业很轻松,要找权威一些的机构
声明:本站所有文章资源内容,如无特殊说明或标注,均为采集网络资源。如若本站内容侵犯了原著者的合法权益,可联系 836084111@qq.com 删除。