信息传输、软件和信息技术服务业/软件和信息技术服务业/信息技术咨询服务版权有问题?点此投诉CV大模型是指在计算机视觉领域使用大量的参数和数据进行预训练的深度学习模型,通常基于Transformer结构,目的是学习到一种通用的视觉特征表示,可以用于不同的下游任务,如图像分类、目标检测、语义分割等。CV大模型的优点是可以提高模型的泛化能力和性能,缩短模型开发和部署的周期,降低标注数据的成本。CV大模型的代表作有华为盘古CV1、ViT2、V-MoE3等。
按应用领域,CV大模型在安防视频、交通视频、智能驾驶、MR/XR领域、智能终端以及工业视觉的应用广泛。按主要应用领域划分
CV大模型行业具有技术路线多元、算力需求较大、以及行业应用场景广阔的三大特征。随着技术的进步和算力成本的降低,预计CV大模型在视觉识别市场的占有率将迅速增长,为行业带来巨大的商业机会。[4]视觉大模型的技术实现路径可以粗浅的分为三大类别,分别是文本提示(TextuallyPrompt)、视觉提示(VisuallyPrompt)以及多元提示(HeterogenousPrompt)。文本提示通过文本-图像正负对,并根据语言提示产出结果;视觉提示通过点与框的额外标注进行提示,并根据语言提示产出结果;多元提示通过融合文本、图像、音频以及视频等多模态信息,并通过多元信息源进行提示从而产出结果。文本提示算力耗费低,模型复杂度低,输入直观。多元提示模型泛化能力强,但模型复杂度高,算力消耗大。CV大模型的上游算力基础设施主要包括AI计算芯片、算力/网络设备以及数据中心,这三者构建了CV大模型开放的底层基础支持。其中,AI计算芯片可分为训练芯片与推理芯片;网络设备核心包含服务器、交换机以及光模块;数据中心则有计算、存储以及网络三个部分组成。CV训练对算力需求巨大,2020年GPT3训练983M大小的图片数据集用了10天,CV基础大模型的训练量显著高于NLP大模型。在计算机视觉(CV)领域,尽管大模型仍处于探索阶段,其在低数据集分割的通用性已为安防、物流、零售及交通等行业带来视觉泛化的提升和开发成本的降低。目前,市场上已有数款专为特定行业设计的CV大模型,展现出显著的经济效益。以零售为例,CV大模型能在数据匮乏的环境下有效识别多种商品,显著减少场景特定的训练投入。展望未来,安防、遥感、交通和医疗被认为是最具增长潜力的领域。虽然当前CV大模型在图像识别精度和算力需求上仍有挑战,但这些行业的应用仍然初级。随着技术的进步和算力成本的降低,预计CV大模型在视觉识别市场的占有率将迅速增长,为行业带来巨大的商业机会。
计算机视觉的传统特征工程依赖手工设计的算子,如SIFT算法,进行图像特征提取。这种方法要求高,且难以跨项目共享。随着技术进步,深度学习,特别是卷积神经网络(CNN),为特征提取带来革命。CNN通过卷积层模拟并优化传统特征提取,如VGG和ResNet进一步增强了其能力。变分自编码器(VAE)和生成对抗网络(GAN)为图像生成与处理开辟了新路径。近期,视觉转换器通过多头注意力机制将图像处理视为文本处理,将图像拆分为局部图,再进行向量嵌入和相关性计算。这种方法没有使用图像的先验知识,使其具有更强的泛化能力和性能提升。-1963年:LawrenceRoberts提出了一种从二维图像推断三维信息的方法,开启了从图像理解三维场景的研究。-1977年:DavidMarr提出了一种计算视觉理论,提供了一个基于视觉信息分层处理的计算机视觉框架。-1987年:IrvingBiederman提出了基于组件的识别理论,认为物体可以通过将其分解为基本的几何形状(称为geons)来识别。在计算机视觉的传统特征工程中,工程师依赖于各种手工设计的算子来提取图像的视觉特征,如边缘提取、直线和圆形特征等。其中,SIFT算法被视为这一领域的技术巅峰。处理一幅图像通常需要经过一系列的特征提取步骤,最终得到一个特征集合。然后,工程师还需进一步采用主成分分析、回归分析或支持向量机(SVM)等方法进行手动的特征筛选和处理。这种方法不仅对开发人员的专业知识和时间要求很高,而且由于每个项目的视觉特征都有其独特性,这使得开发的成果难以在不同项目之间共享。随着技术的进步,这种传统的方法在计算机视觉领域已逐渐被淘汰,转向更为自动化和通用的方法。-1963年:LawrenceRoberts提出了一种从二维图像推断三维信息的方法,开启了从图像理解三维场景的研究。-1977年:DavidMarr提出了一种计算视觉理论,提供了一个基于视觉信息分层处理的计算机视觉框架。-1987年:IrvingBiederman提出了基于组件的识别理论,认为物体可以通过将其分解为基本的几何形状(称为geons)来识别。在计算机视觉的传统特征工程中,工程师依赖于各种手工设计的算子来提取图像的视觉特征,如边缘提取、直线和圆形特征等。其中,SIFT算法被视为这一领域的技术巅峰。处理一幅图像通常需要经过一系列的特征提取步骤,最终得到一个特征集合。然后,工程师还需进一步采用主成分分析、回归分析或支持向量机(SVM)等方法进行手动的特征筛选和处理。这种方法不仅对开发人员的专业知识和时间要求很高,而且由于每个项目的视觉特征都有其独特性,这使得开发的成果难以在不同项目之间共享。随着技术的进步,这种传统的方法在计算机视觉领域已逐渐被淘汰,转向更为自动化和通用的方法。-1963年:LawrenceRoberts提出了一种从二维图像推断三维信息的方法,开启了从图像理解三维场景的研究。-1977年:DavidMarr提出了一种计算视觉理论,提供了一个基于视觉信息分层处理的计算机视觉框架。-1987年:IrvingBiederman提出了基于组件的识别理论,认为物体可以通过将其分解为基本的几何形状(称为geons)来识别。在计算机视觉的传统特征工程中,工程师依赖于各种手工设计的算子来提取图像的视觉特征,如边缘提取、直线和圆形特征等。其中,SIFT算法被视为这一领域的技术巅峰。处理一幅图像通常需要经过一系列的特征提取步骤,最终得到一个特征集合。然后,工程师还需进一步采用主成分分析、回归分析或支持向量机(SVM)等方法进行手动的特征筛选和处理。这种方法不仅对开发人员的专业知识和时间要求很高,而且由于每个项目的视觉特征都有其独特性,这使得开发的成果难以在不同项目之间共享。随着技术的进步,这种传统的方法在计算机视觉领域已逐渐被淘汰,转向更为自动化和通用的方法。-1963年:LawrenceRoberts提出了一种从二维图像推断三维信息的方法,开启了从图像理解三维场景的研究。-1977年:DavidMarr提出了一种计算视觉理论,提供了一个基于视觉信息分层处理的计算机视觉框架。-1987年:IrvingBiederman提出了基于组件的识别理论,认为物体可以通过将其分解为基本的几何形状(称为geons)来识别。在计算机视觉的传统特征工程中,工程师依赖于各种手工设计的算子来提取图像的视觉特征,如边缘提取、直线和圆形特征等。其中,SIFT算法被视为这一领域的技术巅峰。处理一幅图像通常需要经过一系列的特征提取步骤,最终得到一个特征集合。然后,工程师还需进一步采用主成分分析、回归分析或支持向量机(SVM)等方法进行手动的特征筛选和处理。这种方法不仅对开发人员的专业知识和时间要求很高,而且由于每个项目的视觉特征都有其独特性,这使得开发的成果难以在不同项目之间共享。随着技术的进步,这种传统的方法在计算机视觉领域已逐渐被淘汰,转向更为自动化和通用的方法。-1989年:YannLeCun将一种反向传播式的学习算法应用于Fukushima的卷积神经网络结构,并开发了LeNet-5,这是第一个现代卷积神经网络,它在手写数字识别上取得了高性能。
-2014年:IanGoodfellow等人提出了生成对抗网络(GAN)的概念,并展示了一些生成人脸和数字图像的结果。GAN是一种基于博弈论的无监督学习方法,可以从数据中学习潜在的分布,并生成新的合成图像。计算机视觉的深度学习领域,卷积神经网络(CNN)起到了革命性的作用。核心在于其卷积运算,通过多个滤波器组成的卷积层,CNN能够模拟并超越传统特征工程的特征提取能力。随着层叠的卷积层,CNN有效地集成了众多特征提取算子,从而实现了从像素到高维特征的映射。特别是近年的VGG和ResNet技术,进一步强化了CNN的能力。除CNN之外,变分自编码器(VAE)为图像生成和编码提供了新的视角,而生成对抗网络(GAN)则开启了图像生成和风格迁移的新篇章。这三者共同推动了计算机视觉的进步,其中CNN因其对图像的空间相关性的利用,特别适合小数据集和边缘计算,而VAE和GAN则为图像生成和处理提供了更为丰富和多样的方法。-2017年:AshishVaswani等人提出了Transformer模型,它是一种编码器-解码器架构,它使用自注意力层而不是循环或卷积层来编码和解码序列。-2020年:AlexeyDosovitskiy等人提出了视觉Transformer(ViT),它是一种Transformer模型,它直接将图像块作为输入标记,并显示了当在大规模数据集上进行预训练时,它可以在图像分类上取得与CNN相媲美的性能。视觉转换器阶段的信号处理核心算法是多头注意力(Multi-HeadAttention)机制。视觉转换器将图像视为文本,将一幅图像拆分为若干局部图(Patch),如果把每个局部图看成一个词元(Token),那么一幅图像就相当于由一串“词元”组成的一句话。按照自然语言的处理逻辑,需要使用向量嵌入(Embedding)技术将每个词元都变成一个高维向量,那么一幅图像就相当于一个矩阵,其行数等于词元数量,列数等于高维向量的元素个数。后续的处理就很简单了,只需要使用自然语言处理中的多头注意力机制对这些高维向量进行相关性计算,然后再映射到另一个更高维度的空间即可。视觉转换器的神经网络并没有使用任何图像的先验性知识,而是将整幅图的所有像素点都进行相关性计算,因此图像卷积计算可以看成是多头注意力机制的一个特例,而多头注意力机制可以看成是全画幅的(更复杂的)图像卷积运算。正是因为视觉转换器并没有使用任何图像领域的先验知识,并且多头注意力机制具有极为简单的矩阵运算,这使得视觉转换器能等效于任何特征处理算子,这无疑带来性能上的大幅提升和更为强大的泛化能力。-2017年:AshishVaswani等人提出了Transformer模型,它是一种编码器-解码器架构,它使用自注意力层而不是循环或卷积层来编码和解码序列。-2020年:AlexeyDosovitskiy等人提出了视觉Transformer(ViT),它是一种Transformer模型,它直接将图像块作为输入标记,并显示了当在大规模数据集上进行预训练时,它可以在图像分类上取得与CNN相媲美的性能。视觉转换器阶段的信号处理核心算法是多头注意力(Multi-HeadAttention)机制。视觉转换器将图像视为文本,将一幅图像拆分为若干局部图(Patch),如果把每个局部图看成一个词元(Token),那么一幅图像就相当于由一串“词元”组成的一句话。按照自然语言的处理逻辑,需要使用向量嵌入(Embedding)技术将每个词元都变成一个高维向量,那么一幅图像就相当于一个矩阵,其行数等于词元数量,列数等于高维向量的元素个数。后续的处理就很简单了,只需要使用自然语言处理中的多头注意力机制对这些高维向量进行相关性计算,然后再映射到另一个更高维度的空间即可。视觉转换器的神经网络并没有使用任何图像的先验性知识,而是将整幅图的所有像素点都进行相关性计算,因此图像卷积计算可以看成是多头注意力机制的一个特例,而多头注意力机制可以看成是全画幅的(更复杂的)图像卷积运算。正是因为视觉转换器并没有使用任何图像领域的先验知识,并且多头注意力机制具有极为简单的矩阵运算,这使得视觉转换器能等效于任何特征处理算子,这无疑带来性能上的大幅提升和更为强大的泛化能力。-2017年:AshishVaswani等人提出了Transformer模型,它是一种编码器-解码器架构,它使用自注意力层而不是循环或卷积层来编码和解码序列。-2020年:AlexeyDosovitskiy等人提出了视觉Transformer(ViT),它是一种Transformer模型,它直接将图像块作为输入标记,并显示了当在大规模数据集上进行预训练时,它可以在图像分类上取得与CNN相媲美的性能。视觉转换器阶段的信号处理核心算法是多头注意力(Multi-HeadAttention)机制。视觉转换器将图像视为文本,将一幅图像拆分为若干局部图(Patch),如果把每个局部图看成一个词元(Token),那么一幅图像就相当于由一串“词元”组成的一句话。按照自然语言的处理逻辑,需要使用向量嵌入(Embedding)技术将每个词元都变成一个高维向量,那么一幅图像就相当于一个矩阵,其行数等于词元数量,列数等于高维向量的元素个数。后续的处理就很简单了,只需要使用自然语言处理中的多头注意力机制对这些高维向量进行相关性计算,然后再映射到另一个更高维度的空间即可。视觉转换器的神经网络并没有使用任何图像的先验性知识,而是将整幅图的所有像素点都进行相关性计算,因此图像卷积计算可以看成是多头注意力机制的一个特例,而多头注意力机制可以看成是全画幅的(更复杂的)图像卷积运算。正是因为视觉转换器并没有使用任何图像领域的先验知识,并且多头注意力机制具有极为简单的矩阵运算,这使得视觉转换器能等效于任何特征处理算子,这无疑带来性能上的大幅提升和更为强大的泛化能力。-2017年:AshishVaswani等人提出了Transformer模型,它是一种编码器-解码器架构,它使用自注意力层而不是循环或卷积层来编码和解码序列。-2020年:AlexeyDosovitskiy等人提出了视觉Transformer(ViT),它是一种Transformer模型,它直接将图像块作为输入标记,并显示了当在大规模数据集上进行预训练时,它可以在图像分类上取得与CNN相媲美的性能。视觉转换器阶段的信号处理核心算法是多头注意力(Multi-HeadAttention)机制。视觉转换器将图像视为文本,将一幅图像拆分为若干局部图(Patch),如果把每个局部图看成一个词元(Token),那么一幅图像就相当于由一串“词元”组成的一句话。按照自然语言的处理逻辑,需要使用向量嵌入(Embedding)技术将每个词元都变成一个高维向量,那么一幅图像就相当于一个矩阵,其行数等于词元数量,列数等于高维向量的元素个数。后续的处理就很简单了,只需要使用自然语言处理中的多头注意力机制对这些高维向量进行相关性计算,然后再映射到另一个更高维度的空间即可。视觉转换器的神经网络并没有使用任何图像的先验性知识,而是将整幅图的所有像素点都进行相关性计算,因此图像卷积计算可以看成是多头注意力机制的一个特例,而多头注意力机制可以看成是全画幅的(更复杂的)图像卷积运算。正是因为视觉转换器并没有使用任何图像领域的先验知识,并且多头注意力机制具有极为简单的矩阵运算,这使得视觉转换器能等效于任何特征处理算子,这无疑带来性能上的大幅提升和更为强大的泛化能力。
计算机视觉(CV)大模型的算力基础设施位于产业链的上游,为其行业应用提供关键的计算支持。这一基础设施主要由AI计算芯片、高性能网络设备和数据中心三大组件构成,共同确保CV大模型的稳定运行。产业链的中游包括专注于研发的供应商,主要提供基于CV大模型的定制化行业解决方案。而产业链的下游则涉及到广泛的应用和行业场景,展现CV大模型的实际应用价值。CV大模型产业链上游的算力基础设施,包括AI计算芯片、网络设备和数据中心,为模型提供关键的计算支持,其中推理部署算力消耗占比达65%,预计到2030年将增至75%。中游由研发供应商组成,专注于提供基于CV大模型的行业解决方案。技术实现路径包括文本提示、视觉提示和多元提示,其中多元提示模型泛化能力强,但算力消耗大。下游涉及各类应用和行业场景。参与者类型分为通用CV大模型供应商,如阿里云、腾讯云等,和行业垂直CV大模型供应商,如宇视科技、大华股份等。商业模式上,ToB端是主要盈利途径,占90%营收,而ToC端占10%。CV大模型的核心价值在于泛化复杂应用场景,提供一体式解决方案,显著提高部署效率。CV大模型的算力基础设施是上游的核心组成之一,为CV大模型的行业应用提供了基础运算的支持。CV大模型的上游算力基础设施主要包括AI计算芯片、算力/网络设备以及数据中心,这三者构建了CV大模型开放的底层基础支持。其中,AI计算芯片可分为训练芯片与推理芯片;网络设备核心包含服务器、交换机以及光模块;数据中心则有计算、存储以及网络三个部分组成。苏算力消耗占比更大。当前模型训练的算力消耗占比为35%,模型推理的算力消耗占比为65%。随着CV大模型的不断成熟,且下游的模型商业化路径不断拓宽,当前的算力消耗将由训练向推理部分转移,预计在2030年,模型推理的算力成本占比将会达到75%。
CV大模型下游的应用场景之一为行业场景,主要覆盖零售、安防、物流、交通、工业、遥感等行业领域。从商业化落地成熟度分析,CV大模型在安防、物流、零售以及交通行业当前的商业化落地成熟度较高。虽然CV大模型仍处于初级阶段,但其在低数据集分割上的通用能力已助力部分领域提升视觉泛化并减少开发成本。当前,已有多款针对特定行业的CV大模型上市并展现出初步降本增效的效果。例如在零售行业,CV大模型可在少量数据或无数据的前提下对多源类型的商品实现识别,为不同的训练场景降低超70%的多次开放需求,且识别精度在多个评测集中达到85%以上的SOTA水准。中国基于CV大模型带动的AI行业市场规模2022年为189.5亿元,处在行业开始的萌芽期。随着CV大模型的技术成熟与商业化落地场景的拓宽,预计未来基于CV大模型的AI行业市场规模将进入高速增长期,在2027达到508.4亿元。中国CV大模型的市场发展有两大重要节点。首先,CV大模型在2020年开始出现,百度发布的VIMER-UFO视觉大模型标志着行业进入了发展雏形阶段,也标志着计算机视觉也进入了10亿规模的高参数、大模型时代。在随后的一年中,基于ViT的各类参数调优的CV大模型陆续推出,并在特定视觉任务达到SOTA精度。其次,在2023年4月,Meta发布名为“SegmentAnythingModel,SAM”的图像分割模型,通过10亿掩码以及1,100万张图像的训练成功实现零样本泛化,向世人展现了CV大模型蕴含的巨大潜力。SAM的出现被视作视觉领域类“GPT"似的里程碑,将快速拉动CV大模型的市场规模。预计2023年,由CV大模型带动的人工智能产业规模将达到239.5亿元。由于CV大模型对计算机视觉领域带来了革命性的影响,预计未来CV大模型的行业将迎来高速增长,将直接带动AI市场规模在2027年达到508.2亿元。首先,CV大模型由于其卓越的泛化能力,使得计算机视觉设备能高效处理多种视觉任务。相比于传统计算机视觉开放流程,将显著减少跨任务的调参和模型设计成本超80%。其次,技术进步和基础设施完善将推动算力成本下降,助力拓宽CV大模型的商业化道路。随着芯片技术的进步和
国产化的推进,服务器、存储、网络等硬件设备的性能不断提升,价格逐渐下降。例如,国内领先的芯片企业紫光展锐推出了基于7nm工艺的鲲鹏920处理器,其性能优于英特尔同类产品,但价格低超30%。随着CV大模型基础设施的完善度提升,低廉的算力价格和更先进的设备性能将助推CV大模型高速发展。综上所述,中国基于CV大模型的AI市场规模有望在未来继续保持高速发展,预计CAGR将达到21.4%,在2027年达到508.4亿元。
中国的CV大模型行业正展现初步活跃态势。众多厂商纷纷投入研发,其中部分如华为已成功商业化应用,如其盘古模型在矿山场景中实现了高效的5G+AI技术整合,实现了98%的异物检测准确率。从战略角度看,行业竞争格局分为三个梯队:首梯队如百度、商汤科技和云从科技在模型规模、应用广度及公开数据集表现上领先;次梯队如华为、智源、阿里巴巴和中国电信在市场渗透和产品完整性上有所体现;而第三梯队如美团、航天宏图和腾讯则专注于垂直领域应用。中国CV大模型行业当前竞争格局的形成原因主要有两大驱动因素。首先,部分厂商的战略方向较为超前,在大模型的布局较早。例如,百度在2021年9月便提出视觉大模型Vimer-UFO,在彼时达到10亿规模参数,领先行业剩余企业CV大模型推出时间1年多之久。较早布局产品的厂家在CV大模型竞赛中取得了一定先机。其次,在计算机视觉领域的早期沉淀使得视觉厂商在算力基础资源落后的情况下表现依然不俗。例如,处在第一梯队的商汤科技便是计算机视觉领域的龙头。虽然商汤科技在计算资源与网络基础设施方面的投入无法匹敌一线互联网科技大厂,但凭借其在CV领域的超过10年的沉淀以及在AI芯片的早期大量投入(拥有行业最多的英伟达GPU资源)帮助其在CV大模型的竞赛中取得领先地位。综上所述,启动较早并具备深厚CV领域研究经验的企业是当前竞争格局的领跑者。未来,预计中国CV大模型行业的竞争将会经历重大调整与变革。首先,CV大模型的竞争核心并非仅限于模型的研发价值,而是更多地体现在算力、数据资源及整体生态的综合实力上。AI基础设施、人才储备和完整的AI生态链都将对CV大模型的发展轨迹产生深远影响。以阿里云为例,尽管其在大模型布局上起步稍晚,但得益于其深厚的技术人才积累和完善的生态建设,其2023年7月推出的Qwen-VL已在多个评测中表现出色,性能超越其他同规模模型超30%。其次,从商业应用角度看,CV大模型仍处于初级阶段。受技术和算力约束,其在多数行业的应用仍然受限。以工业为例,尽管从算法角度已能达到多任务统一,但由于实际性能和算力需求,85%的工业终端设备仍无法实现部署。因此为了更广泛的行业应用,CV大模型企业既需要提升终端设备性能,也需优化模型以降低算力需求。综上所述,随技术进步和商业应用拓展,各企业将更加发挥其独特优势,头部企业应加强市场开拓,将初期优势转化为持续领先,而中小企业则需充分利用其特有资源,利用行业端的特定优势参与竞争。未来CV大模型行业的竞争格局还将经历调整与变革。[11]
1.发布时是业界最大的视觉模型,部分场景下的视觉识别准确度成绩位居世界第一。2.在矿山、铁路巡检等场景下,可以实现高精度的异物检测、缺陷识别、作业规范监测等功能,提升安全性和效率。3.将盘古·CV大模型开放给广大的AI开发者和研究者,共同探索和创新AI的应用场景和技术边界。
1.支持多种视觉任务,如图像生成、数字人、场景生成等,为用户提供丰富的数字文创平台和产品。2.结合商汤AI大装置SenseCore,实现了超过1000亿参数的多模态预训练模型,可以处理文本、图像、视频、音频等多种数据类型,并支持中英文等多种语言。3.提供了模型研发和感知模型标注服务,帮助用户快速构建和部署高效、高质、高性能的AI应用,降低AI开发门槛和成本,提升AI落地效率和价值。
1基于领先的视觉技术,利用海量的图像、视频等数据,为企业和开发者提供强大的视觉基础模型,以及一整套视觉任务定制与应用能力。竞争优势22.创新性地提出了多种视觉自监督预训练模型,如VIMER-CAE.VIMER-StrucTexT等,在图像分类、目标检测、语义分割、文档图像理解等经典下游任务上达到SOTA结果。竞争优势33提供了零门槛AI开发平台EasyDL1和全功能AI开发平台BML,支持基于文心大模型进行高效定制开发,一站式完成Al模型全生命周期管理。法律声明权归属:头豹上关于页面内容的补充说明、描述,以及其中包含的头豹标识、版面设计、排版方式、文本、图片、图形等,相关知识产权归头豹所有,均受著作权法、商标法及其它法律保护。尊重原创:头豹上发布的内容(包括但不限于页面中呈现的数据、文字、图表、图像等),著作权均归发布者所有。头豹有权但无义务对用户发布的内容进行审核,有权根据相关证据结合法律法规对侵权信息进行处理。头豹不对发布者发布内容的知识产权权属进行保证,并且尊重权利人的知识产权及其他合法权益。如果权利人认为头豹平台上发布者发布的内容侵犯自身的知识产权及其他合法权益,可依法向头豹(联系邮箱:support@leadleo.com)发出书面说明,并应提供具有证明效力的证据材料。头豹在书面审核相关材料后,有权根据《中华人民共和国侵权责任法》等法律法规删除相关内容,并依法保留相关数据。内容使用:未经发布方及头豹事先书面许可,任何人不得以任何方式直接或间接地复制、再造、传播、出版、引用、改编、汇编上述内容,或用于任何商业目的。任何第三方如需转载、引用或基于任何商业目的使用本页面上的任何内容(包括但不限于数据、文字、图表、图像等),可根据页面相关的指引进行授权操作;或联系头豹取得相应授权,联系邮箱:support@leadleo.com.合作维权:头豹已获得发布方的授权,如果任何第三方侵犯了发布方相关的权利,发布方或将授权头豹或其指定的代理人代表头豹自身或发布方对该第三方提出警告、投诉、发起诉讼、进行上诉,或谈判和解,或在认为必要的情况下参与共同维权。完整性:以上声明和本页内容以及本平台所有内容(包括但不限于文字、图片、图表、视频、数据)构成不可分割的部分,在未详细阅读并认可本声明所有条款的前提下,请勿对本页面以及头豹所有内容做任何形式的浏览、点击、引用或下