本文章主要讲述【宝骏510怎么没有mp4】阿里云服务器租赁异步任务处理系统在数据分析领域的应用,趣分享- 分享学习网站优化,全网营销,百科大全,生活经验,数码百科等相关百科内容

异步任务处理系统的数据分析

数据处理、机器学习培训、数据统计分析是最常见的离线工作。这些工作往往经过一系列预处理后,从上游统一转移到工作平台进行批量培训和分析。Python提供了丰富的数据处理库,成为数据领域最常用的语言之一。函数计算基本上支持python运行库,支持快速引入第三方库,因此可以使用函数计算异步操作轻松处理。

数据分析方案的一般要求

数据分析场景往往具有执行时间长、并发性大的特点。在离线场景中,为了集中处理,经常会定期触发大量数据。由于这种触发特性,业务方面往往对资源利用率(成本)要求很高,希望在满足效率的同时,将成本降至最低。具体归纳如下。

程序开发方便,熟悉第三方软件包和定制。支持长期执行。您可以检视执行中工作的状态,或登入系统以进行工作。如果出现数据错误,可以手动停止作业。资源利用率高,成本最好。这些要求适用于使用函数计算异步任务。

典型案例-数据库自治服务

工作基本情况

阿里云集团内部的数据库巡逻平台主要用于优化SQL语句的慢查询、日志等。整个平台工作分为离线培训和在线分析两大工作。在这里,在线分析工作达到数万个核心,离线工作每天运行数万个核心时间。由于在线分析、线下培训时间的不确定性,很难提高集群的整体资源利用率,在业务高峰期需要相当大的灵活计算支持。使用函数计算后,整个业务的映射如下:

业务问题和体系结构演变

数据库巡逻平台负责对阿里巴巴整个网络的Region进行数据库SQL优化和分析。Mysql数据派生自每个区域的群集,并在区域维中进行预聚合和存储。分析时需要跨region进行聚合和统计,因此巡逻平台首先在内部网上建立大型Flink集群,尝试进行统计分析。但是,在实际使用中出现了以下问题:

数据处理算法迭代很麻烦。主要体现在算法的部署、测试和发布上。Flink的运行时功能极大地限制了发布周期。Flink支持对常规库和某些自定义第三方库不好。一些依赖算法的机器学习、统计库在Flink官方Python运行库中不存在,或者版本陈旧,使用不便,不符合要求。Flink转发链路很长,Flink故障排除很困难。高峰时间灵活的速度和资源更难满足要求。而且整体成本很高。了解函数计算后,对Flink计算部分进行算法操作迁移,将核心训练和统计算法迁移到函数计算中。通过使用函数计算异步操作提供的相关功能,大大提高了整体开发、运营和成本。

迁移函数计算架构的效果

迁移函数计算完毕后,系统可以完美地执行峰值流量,并快速完成每日分析和培训任务。函数计算丰富的运行时功能支持业务的快速迭代。从计算上看,同样的核费用原本是Flink的三分之一。函数计算异步操作非常适合这些数据处理任务。函数计算在降低计算资源成本的同时,可以摆脱复杂的平台操作和维护任务,集中精力开发和优化算法。

函数计算异步操作的最佳实践-kafka ETL

ETL是数据处理中更常见的任务。原始数据存在于Kafka或DB中。因为业务需要处理数据,然后转储到其他存储介质,或者重新保存原始工作队列。这种工作也属于明显的任务场景。通过采用云中的中间件服务(如Kafka),可以计算出强大的触发器集成、生态便利的集成Kafka,而不必担心部署KAFKA连接器、处理错误等与业务无关的任务。

ETL工作方案的要求

ETL操作往往由Source、Sink和处理单元三部分组成,因此,ETL操作除了对计算能力的要求外,还需要在操作系统中有非常强大的上游和下游连接生态系统。此外,由于数据处理的准确性要求,作业处理系统必须能够提供Exactly Once的作业含义。此外,为了处理失败的消息,需要有补偿(例如重试、私信队列)的能力。摘要如下:

正确执行任务:支持任务重复触发重复消除;特派团支助补偿,死信队列;任务的上游和下游:数据可以轻松拉出,处理后传递到其他系统。运算符能力要求:用户支持

自定义算子的能力,能够灵活的执行各种数据处理任务。

Serverless Task 对 ETL 任务的支持

函数计算支持的 Destinationg 功能可以很好的支持 ETL 任务对于便捷连接上下游、任务准确执行的相关诉求。函数计算丰富的 Runtime 支持也使得对于数据处理的任务变得极为灵活。在 Kafka ETL 任务处理场景中,我们主要用到的 Serverless Task 能力如下:

  1. 异步目标配置功能:
    1. 通过配置任务成功目标,支持自动将任务投递至下游系统(如队列中);
    2. 通过配置任务失败目标,支持死信队列能力,将失败的任务投递至消息队列,等待后续的补偿处理;
  2. 灵活的算子及第三方库支持:
    1. Python 由于其丰富的统计、运算的第三方库的支持,在数据处理领域 Python 是用的最为广泛的语言之一。函数计算的 Python Runtime 支持对第三方库打包,使您能够快速的进行原型验证及测试上线。

Kafka ETL 任务处理示例

我们以简单的 ETL 任务处理为例,数据源来自 Kafka,经过函数计算处理后,将任务执行结果及上下游信息推送至消息服务 MNS。函数计算部分项目源码见:

资源准备

Kafka 资源准备

  1. 进入 Kafka 控制台,点击购买实例,之后部署。等待实例部署完成;
  1. 进入创建好的实例中,创建一个测试用 Topic。

目标资源准备(MNS)

进入 MNS 控制台,分别创建两个队列:

  1. dead-letter-queue:作为死信队列使用。当消息处理失败后,执行的上下文信息将投递到这里;
  2. fc-etl-processed-message:作为任务成功执行后的推送目标。

创建完成后,如下图所示:

部署

  1. 下载安装 Serverless Devs:

npm install @serverless-devs/s

详细文档可以参考 Serverless Devs 安装文档

  1. 配置密钥信息:

s config add

详细文档可以参考 阿里云密钥配置文档

  1. 进入项目,修改 s.yaml 文件中的目标 ARN 为上述创建后的 MNS 队列 ARN,并修改服务角色为已存在的角色;
  2. 部署:s deploy -t s.yaml

配置 ETL 任务

  1. 进入kafka 控制台 – connector 任务列表标签页,点击创建 Connector;
  1. 在配置完基本信息、源的 Topic 后,配置目标服务。在这里面我们选择函数计算作为目标

您可以根据业务需求配置发送批大小及重试次数。至此,我们已完成任务的基本配置。

注意:这里面的发送模式请选择“异步”模式。

进入到函数计算异步配置页面,我们可以看到目前的配置如下:

测试 ETL 任务

  1. 进入kafka 控制台 – connector 任务列表标签页,点击测试;填完消息内容后,点击发送
  1. 发送多条消息后,进入到函数控制台。我们可以看到有多条消息在执行中。此时我们选择使用停止任务的方式来模拟一次任务执行失败:
  1. 进入到消息服务 MNS 控制台中,我们可以看到两个先前创建的队列中均有一条可用消息,分别代表一次执行和失败的任务内容:
  1. 进入到队列详情中,我们可以看到两条消息内容。以成功的消息内容为例:

{
"timestamp":1646826806389,
"requestContext":{
"requestId":"919889e7-60ff-408f-a0c7-627bbff88456",
"functionArn":"acs:fc:::service;,
"condition":"",
"approximateInvokeCount":1
},
"requestPayload":"[{"key":"k1","offset":1,"overflowFlag":false,"partition":5,"timestamp":1646826803356,"topic":"connector-demo","value":"k1","valueSize":4}]",
"responseContext":{
"statusCode":200,
"functionError":""
},
"responsePayload":"[n {n "key": "k1",n "offset": 1,n "overflowFlag": false,n "partition": 5,n "timestamp": 1646826803356,n "topic": "connector-demo",n "value": "k1",n "valueSize": 4n }n]"
}

在这里面,我们可以看到 "responsePayload" 这一个 Key 中有函数返回的原始内容。一般情况下我们会将数据处理的结果作为 response 返回,所以在后续的处理中,可以通过读取 "responsePayload" 来获取处理后的结果。

"requestPayload" 这一个 Key 中是 Kafka 触发函数计算的原始内容,通过读取这条数据中的内容,便可以获取原始数据。

函数计算异步任务最佳实践-音视频处理

随着计算机技术和网络的发展,视频点播技术因其良好的人机交互性和流媒体传输技术倍受教育、娱乐等行业的青睐。当前云计算平台厂商的产品线不断成熟完善,如果想要搭建视频点播类应用,直接上云会扫清硬件采购、技术等各种障碍。以阿里云为例,典型的解决方案如下:

在该解决方案中,对象存储OSS可以支持海量视频存储,采集上传的视频被转码以适配各种终端、CDN加速终端设备播放视频的速度。此外还有一些内容安全审查需求,例如鉴黄、鉴恐等。

音视频是典型的长时处理场景,非常适合使用函数计算任务。

音视频处理的需求

在视频点播解决方案中,视频转码是最消耗计算力的一个子系统,虽然您可以使用云上专门的转码服务,但在某些场景下,您仍会选择自己搭建转码服务,例如:

  • 需要更弹性的视频处理服务。例如,已经在虚拟机或容器平台上基于ffmpeg部署了一套视频处理服务,但想在此基础上提升资源利用率,实现具有明显波峰波谷、流量突增情况下的快弹及稳定性;
  • 需要批量快速处理多个超大的视频。例如,每周五定时产生几百个4 GB以上1080P的大视频,每个任务可能执行时长达数小时;
  • 对视频处理任务希望实时掌握进度;并在一些出现错误的情况下需要登录实例排查问题甚至停止执行中的任务避免资源消耗。

Serverless Task 对音视频场景的支持

上述诉求是典型的任务场景。而由于这类任务往往具有波峰波谷的特性,如何进行计算资源的运维,并尽可能的降低其成本,这部分的工作量甚至比实际视频处理业务的工作量还要大。Serverless Task 这一产品形态就是为了解决这类场景而诞生的,通过 Serverless Task,您可以快速构建高弹性、高可用、低成本免运维的视频处理平台。

在这个场景中,我们会用到的 Serverless Task 的主要能力如下:

  1. 免运维 & 低成本:计算资源随用随弹,不使用不付费;
  2. 长时执行任务负载友好:单个实例最长支持 24h 的执行时长;
  3. 任务去重:支持触发端的错误补偿。对于单一任务,Serverless Task 能够做到自动去重的能力,执行更可靠;
  4. 任务可观测:所有执行中、执行成功、执行失败的任务可追溯,可查询;支持任务的执行历史数据查询、任务日志查询;
  5. 任务可操作:您可以停止、重试任务;
  6. 敏捷开发 & 测试:官方支持 S 工具进行自动化一键部署;支持登录运行中函数实例的能力,您可以直接登录实例调试 ffmpeg 等第三方程序,所见即所得。

Serverless – FFmpeg 视频转码

项目源码:

部署

  1. 下载安装 Serverless Devs:

npm install @serverless-devs/s

详细文档可以参考 Serverless Devs 安装文档

  1. 配置密钥信息:

s config add

详细文档可以参考 阿里云密钥配置文档

  1. 初始化项目:s init video-transcode -d video-transcode
  2. 进入项目并部署:cd video-transcode && s deploy

调用函数

  1. 发起 5 次异步任务函数调用

$ s VideoTranscoder invoke -e '{"bucket":"my-bucket", "object":"480P.mp4", "output_dir":"a", "dst_format":"mov"}' --invocation-type async --stateful-async-invocation-id my1-480P-mp4
VideoTranscoder/transcode async invoke success.
request id: bf7d7745-886b-42fc-af21-ba87d98e1b1c
$ s VideoTranscoder invoke -e '{"bucket":"my-bucket", "object":"480P.mp4", "output_dir":"a", "dst_format":"mov"}' --invocation-type async --stateful-async-invocation-id my2-480P-mp4
VideoTranscoder/transcode async invoke success.
request id: edb06071-ca26-4580-b0af-3959344cf5c3
$ s VideoTranscoder invoke -e '{"bucket":"my-bucket", "object":"480P.mp4", "output_dir":"a", "dst_format":"flv"}' --invocation-type async --stateful-async-invocation-id my3-480P-mp4
VideoTranscoder/transcode async invoke success.
request id: 41101e41-3c0a-497a-b63c-35d510aef6fb
$ s VideoTranscoder invoke -e '{"bucket":"my-bucket", "object":"480P.mp4", "output_dir":"a", "dst_format":"avi"}' --invocation-type async --stateful-async-invocation-id my4-480P-mp4
VideoTranscoder/transcode async invoke success.
request id: ff48cc04-c61b-4cd3-ae1b-1aaaa1f6c2b2
$ s VideoTranscoder invoke -e '{"bucket":"my-bucket", "object":"480P.mp4", "output_dir":"a", "dst_format":"m3u8"}' --invocation-type async --stateful-async-invocation-id my5-480P-mp4
VideoTranscoder/transcode async invoke success.
request id: d4b02745-420c-4c9e-bc05-75cbdd2d010f

2、登录FC 控制台

可以清晰看出每一次转码任务的执行情况:

    • A 视频是什么时候开始转码的, 什么时候转码结束
    • B 视频转码任务不太符合预期, 我中途可以点击停止调用
    • 通过调用状态过滤和时间窗口过滤,我可以知道现在有多少个任务正在执行, 历史完成情况是怎么样的
    • 可以追溯每次转码任务执行日志和触发payload
    • 当您的转码函数有异常时候, 会触发 dest-fail 函数的执行,您在这个函数可以添加您自定义的逻辑, 比如报警

原文链接:

本文为阿里云原创内容,未经允许不得转载。

本文来自网络,不代表技时实业百科网立场,转载请注明出处:https://www.hofv.cn/archives/42870

作者: 百科知识

联系我们

联系我们

13760338406

在线咨询: QQ交谈

邮箱: 541594806@qq.com

工作时间:周一至周五,9:00-17:30,节假日休息

返回顶部