【开通指南】 实时计算 Flink 全托管版本
简介: 【开通指南】实时计算 Flink 全托管版本
1、试用的实时计算 Flink 版产品是后付费还是预付费?是否有额外费用产生?
预付费,有额外的SLB费用,一天2元封顶。(开通 Flink 全托管产品,需使用按量付费 SLB 从公网访问开发控制台产生费用,1小时≈5分钱,2元/天封顶,欠费后请续费以正常访问开发控制台;如果欠费超过7天,将会释放,释放后不能再访问开发控制台。)
2、新用户是否限制同人?
同人多个账号参与:限制; 每个人参与次数:限制 1 次
3、试用结束后客户实例的状态,是否存在停止服务及数据丢失或额外收费的情况?
购买时默认不自动续费,只要不自己点击续费,试用结束不会扣钱,试用结束后数据保留7天且会短信通知,7天后依然没有续费则数据和实例一起释放消失。
4、“飞天会员福利日”活动奖品的邮寄时长?
邮寄时长约3天,如无意外情况,活动结束后10天可以到手
开通操作指南
一、流程概要:
1.登陆阿里云账号
2.点击实时计算控制台链接, 点击购买 Flink 全托管,进行实名认证,以及RAM授权
3.选择【包年包月】、【10CU】全托管产品限时优惠99元开通并付款
4.个人体验99元/首月优惠福利,免费认证飞天会员享受首月0元试用!
二、步骤分解
前情提要
- 开通任务请务必按文档开通,选择【包年包月】,【10CU】。
- SLB 是为了能从公网访问开发控制台,SLB 绑定的是按量付费的 SLB 欠费后不能访问开发控制台,续费即可,1个小时大概5分钱左右,欠费超时会被释放,释放后集群不能使用,需重新购买。
0.登陆账号
登陆自己的阿里云账号
- 点击【购买产品】,进行实名认证,如已认证请进行下部操作

2.进行RAM授权
3.出现 Flink 全托管页面,基本配置
- 【包年包月】一定要选择包年包月
- 【1个月】自动生成,不需要调整
- 【自动续费】可根据自身情况选择
- 【地域】可根据自身情况选择,记住地域,后面创建的时候会用到(注意:Flink 云原生集群只能访问相同区域下的上下游存储)
- 【可用区】每选定一个区域,可用区是固定的,记住这个可用区,后面创建交换机的时候会用到
4.网络配置
- 【专有网络】创建专有网络,如出现地域/可用区选项要填写基本配置里面的地域和可用区(注意:如果该账号下有上下游存储,要注意选择和存储在相同 VPC 下的 ID)
- 【虚拟交换机】打对号,开通账号下没有虚拟交换机需要创建和基本配置中相同可用区下的交换机,如下图:

5.工作配置10CU
- 【工作空间名称】
- 【计算资源配额】10 CU,一定要10CU
6.创建存储配置
- 【OSS存储】用于 jar 存储和 state 存储,如果没有点击创建,跳转到 oss 控制台中进行创建,且区域选择和基础配置相同的区域

- 创建区域选择“基本配置”时选择的地域

7.核对金额
再次核对99元,并点击确认订单,完成付款;特别说明认证飞天会员后会显示0元。
非常重要!
原文链接
本文为阿里云原创内容,未经允许不得转载。
【开通指南】 实时计算 Flink 全托管版本的更多相关文章
- 实时计算Flink on Kubernetes产品模式介绍
Flink产品介绍 目前实时计算的产品已经有两种模式,即共享模式和独享模式.这两种模式都是全托管方式,这种托管方式下用户不需要关心整个集群的运维.其次,共享模式和独享模式使用的都是Blink引擎.这两 ...
- 可以穿梭时空的实时计算框架——Flink对时间的处理
Flink对于流处理架构的意义十分重要,Kafka让消息具有了持久化的能力,而处理数据,甚至穿越时间的能力都要靠Flink来完成. 在Streaming-大数据的未来一文中我们知道,对于流式处理最重要 ...
- Spark练习之通过Spark Streaming实时计算wordcount程序
Spark练习之通过Spark Streaming实时计算wordcount程序 Java版本 Scala版本 pom.xml Java版本 import org.apache.spark.Spark ...
- Flink消费Kafka数据并把实时计算的结果导入到Redis
1. 完成的场景 在很多大数据场景下,要求数据形成数据流的形式进行计算和存储.上篇博客介绍了Flink消费Kafka数据实现Wordcount计算,这篇博客需要完成的是将实时计算的结果写到redis. ...
- 《大数据实时计算引擎 Flink 实战与性能优化》新专栏
基于 Flink 1.9 讲解的专栏,涉及入门.概念.原理.实战.性能调优.系统案例的讲解. 专栏介绍 扫码下面专栏二维码可以订阅该专栏 首发地址:http://www.54tianzhisheng. ...
- 一文让你彻底了解大数据实时计算引擎 Flink
前言 在上一篇文章 你公司到底需不需要引入实时计算引擎? 中我讲解了日常中常见的实时需求,然后分析了这些需求的实现方式,接着对比了实时计算和离线计算.随着这些年大数据的飞速发展,也出现了不少计算的框架 ...
- 基于Kafka的实时计算引擎如何选择?Flink or Spark?
1.前言 目前实时计算的业务场景越来越多,实时计算引擎技术及生态也越来越成熟.以Flink和Spark为首的实时计算引擎,成为实时计算场景的重点考虑对象.那么,今天就来聊一聊基于Kafka的实时计算引 ...
- Apache Flink 如何正确处理实时计算场景中的乱序数据
一.流式计算的未来 在谷歌发表了 GFS.BigTable.Google MapReduce 三篇论文后,大数据技术真正有了第一次飞跃,Hadoop 生态系统逐渐发展起来. Hadoop 在处理大批量 ...
- Flink+kafka实现Wordcount实时计算
1. Flink Flink介绍: Flink 是一个针对流数据和批数据的分布式处理引擎.它主要是由 Java 代码实现.目前主要还是依靠开源社区的贡献而发展.对 Flink 而言,其所要处理的主要场 ...
- (二)基于商品属性的相似商品推荐算法——Flink SQL实时计算实现商品的隐式评分
系列随笔: (总览)基于商品属性的相似商品推荐算法 (一)基于商品属性的相似商品推荐算法--整体框架及处理流程 (二)基于商品属性的相似商品推荐算法--Flink SQL实时计算实现商品的隐式评分 ( ...
随机推荐
- using用法总结
一.命名空间的使用 不再赘述. 二.在子类中改变基类成员的访问权限 using可以将public和protected的基类成员的访问权限改为public.protected.private,注意,us ...
- Welcome to YARP - 2.3 配置功能 - 配置过滤器(Configuration Filters)
目录 Welcome to YARP - 1.认识YARP并搭建反向代理服务 Welcome to YARP - 2.配置功能 2.1 - 配置文件(Configuration Files) 2.2 ...
- 亮点抢先看!4月16-17日,百度Create大会开设“AI公开课”,大咖带你打造赚钱工具
3月16日,2024百度Create AI开发者大会正式开放售票,嘉宾套票定价399元.据悉,本次大会以"创造未来(Create the Future)"为主题,设有20+深度论坛 ...
- 记录--用 Vue 实现原神官网的角色切换效果
这里给大家分享我在网上总结出来的一些知识,希望对大家有所帮助 前言 为了更好的了解原神角色,我模仿官网做了一个角色切换效果,在做的过程当中也总结了一些技术点. 为了让大家更好的体验,我兼容了 PC 端 ...
- 是时候来唠一唠synchronized关键字了,Java多线程的必问考点!
写在开头 在之前的博文中,我们介绍了volatile关键字,Java中的锁以及锁的分类,今天我们花5分钟时间,一起学习一下另一个关键字:synchronized. synchronized是什么? 首 ...
- 阿里二面:谈谈ThreadLocal的内存泄漏问题?问麻了。。。。
引言 ThreadLocal在Java多线程编程中扮演着重要的角色,它提供了一种线程局部存储机制,允许每个线程拥有独立的变量副本,从而有效地避免了线程间的数据共享冲突.ThreadLocal的主要用途 ...
- echarts中实现多个label
先来个效果图 如果你刚好需要实现这种效果,那么可以瞅一瞅了 我要开始水文了 如图所示,图中顶部部分文字乍一看好像是独立于柱状图,显示在最顶上,其实它也是由柱状图模拟而成. 只是吧图形相关属性做了隐藏, ...
- 那位拿了多个Offer的大佬分享了最新Go面经
和大家分享一下我们 Go就业训练营 和 升职加薪星球 中战友们投稿的真实面经. 这是第一篇,计划还会再更新4篇最新Go面经,都是拿到Offer的那种! 欢迎大家关注我的账号,关注之后不迷路. 先秀战绩 ...
- kingbaseES 优化之数据库瓶颈排查
针对数据库的性能瓶颈排查方法分为两个层次1.实例级别性能问题排查 2.语句级别性能问题排查 实例级别 实例级别性能问题排查用来分析数据库实例整体是否存在性能瓶颈,然后根据排除出的疑似问题进行实例级别参 ...
- Vue入门笔记一
<Vue.js项目实战>Guillaume Chau Vue核心功能概述 1.一个响应式的数据系统,能通过轻量级的虚拟DOM引擎和最少的优化工作来自动更新用户界面 2.灵活的视图声明,包括 ...