helm-chart-1-简单概念介绍-仓库搭建-在rancher上的使用
简单的概念介绍:
Chart是helm管理的应用的打包格式,一个chart对应一个或一套应用。内部是一系列的yaml描述文件,以为为yaml 服务的文件。
三个部分,helm 、tiller、repo 。helm,类似于 client,用来执行一些操作命令;tiller,运行依赖k8s环境,接收helm的指令,实际进行集群内部应用的管理;repo,应用的仓库,独立于前两者,提供chart。
1,helm-client下载地址
只是搭建仓库的话,只需要helm client 不用安装helm 的server(tiller),k8s或者rancher
2,获取charts,创建仓库(repo),更新仓库
添加仓库源:helm repo add fantastic-charts https://fantastic-charts.storage.googleapis.com
获取某个chart: helm search chartName ; 然后,helm fetch chartName。
创建仓库 :所有要用来组成仓库的chart的打包格式 要在一个文件夹内,这里假设这个文件夹命名charts,下同。在 charts的上层文件夹执行: helm serve --repo-path ./charts 这会生成一个,index.yaml ,与chart 的包同级目录。
新加入chart的时候,要更新inde.yaml才能生效。命令; helm repo index ./charts(目录)
仓库只识别包(eg: XXX.tgz)的形式。自己创建的chart 需要package 一下,在加入repo。 (helm package chart-name/)
启动仓库,在Rancher 里应用
启动仓库
(Rancher) 用gitserver的形式,提供仓库:把各个chart 的文件夹,直接添加到git中,push到远程仓库,远程仓库的地址即可用在Rancher里。(严格意义上并不是一个helm的仓库,只是一个chart的集合)。
rancher,内添加:Gloable内的 cataLog里,addcataLog,即添加到了Rancher内 。
如果在线的git servier 不能用,可以搭建 git server :
创建 git仓库:git init --bare name.git
启动server :git daemon --reuseaddr --base-path=/home/repo(name.git 的外层目录) --export-all --verbose --enable=receive-pack
还可以直接跑一个gitlab 的镜像,方便快捷!
Rancher 不支持下面两种方式的helm repo,可以给helm client用
python 启http服务的形式,在charts的上层目录执行: python -m SimpleHTTPServer 8777
然后,http://ip:portnum/charts/ 即为可用的应用商店的地址。
helm serve --repo-path path --address ip:portNum 直接用helm 启动的方式。
官方doc
http://helm.readthedocs.io/en/latest/
转载注明出处:
https://www.jianshu.com/p/f5f420154fa0
helm-chart-1-简单概念介绍-仓库搭建-在rancher上的使用的更多相关文章
- Zookeeper简单概念介绍
过去,每个应用都是一个CPU.一个主机上的单一系统.然而今天,随着大数据和云计算时代的到来,不论什么相互独立的程序都可以运行在多个计算机上.然而面临的问题是,协调这些集群的系统比在单一主机上要复杂的多 ...
- Nosql 和 Sql 简单概念介绍
Nosql (非关系数据库) 代表数据库:redis / hbase /mongoDB /CouchDB /Neo4J 存储数据使用的是数据结构化存储方法的集合,意味着数据的存储可以是文档.集合.键值 ...
- 云原生交付加速!容器镜像服务企业版支持 Helm Chart
2018 年 6 月,Helm 正式加入了 CNCF 孵化项目:2018 年 8 月,据 CNCF 的调研表明,有百分之六十八的开发者选择了 Helm 作为其应用包装方案:2019 年 6 月,阿里云 ...
- 如何选出适合自己的管理Helm Chart的最佳方式?
本文转载自Rancher Labs 无论你喜欢与否,你都不得不承认Helm是管理Kubernetes应用程序独一无二的工具,你甚至可以通过不同的方式使用它. 在Helm的使用过程中,我们注意到有几个问 ...
- Helm Chart 一键部署 Jenkins
Jenkins Jenkins是一款开源 CI&CD 软件,用于自动化各种任务,包括构建.测试和部署软件.目前提供超过1000个插件来支持构建.部署.自动化, 满足任何项目的需要. Jenki ...
- 【Oracle 集群】ORACLE DATABASE 11G RAC 知识图文详细教程之集群概念介绍(一)
集群概念介绍(一)) 白宁超 2015年7月16日 概述:写下本文档的初衷和动力,来源于上篇的<oracle基本操作手册>.oracle基本操作手册是作者研一假期对oracle基础知识学习 ...
- Linux LVM硬盘管理之一:概念介绍
一.LVM概念介绍: LVM是 Logical Volume Manager(逻辑卷管理)的简写,它由Heinz Mauelshagen在Linux 2.4内核上实现.LVM将一个或多个硬盘的分区在逻 ...
- Java SE/ME/EE的概念介绍
转自 Java SE/ME/EE的概念介绍 多数编程语言都有预选编译好的类库以支持各种特定的功能,在Java中,类库以包(package)的形式提供,不同版本的Java提供不同的包,以面向特定的应用. ...
- JS图表组件 highcharts 简单的介绍
把highcharts拿来做个简单的介绍,希望更多的朋友可以用到这个用来做图表的js插件. preparation Highcharts Highcharts是一个制作图表的纯Javascript类库 ...
随机推荐
- 18/03/18 04:53:44 WARN TaskSchedulerImpl: Initial job has not accepted any resources; check your cluster UI to ensure that workers are registered and have sufficient resources
1:遇到这个问题是在启动bin/spark-shell以后,然后呢,执行spark实现wordcount的例子的时候出现错误了,如: scala> sc.textFile()).reduceBy ...
- C#学习-析构函数
析构函数用于在类销毁之前释放类实例所使用的托管和非托管资源. 对于C#应用程序所创建的大多数对象,可以依靠.NET Framework的垃圾回收器(GC)来隐式地执行内存管理任务. 但是,若创建封装了 ...
- fputcsv导出大量数据
<?php set_time_limit(0); ini_set('memory_limit', '128M'); $fileName = date('YmdHis', time()); hea ...
- C# 之设计原则
代码也需要有秩序,就像世界需要秩序,基于SOLID architecture principles. 一.SOLID原则 S.O.L.I.D.是一组面对面向对象设计的最佳实践的设计原则.术语来自Rob ...
- mysql分组(五)
MySQL GROUP BY 语句 GROUP BY 语句根据一个或多个列对结果集进行分组. 在分组的列上我们可以使用 COUNT, SUM, AVG,等函数. GROUP BY 语法 SELECT ...
- Flink的容错
checkpoint介绍 checkpoint机制是Flink可靠性的基石,可以保证Flink集群在某个算子因为某些原因(如 异常退出)出现故障时,能够将整个应用流图的状态恢复到故障之前的某一状态,保 ...
- Redis闪退解决办法
复杂办法! cmd 进入命令,cd进入redis文件 输入:redis-server.exe redis.windows.conf,手动开启! 简单办法,删除重新下载! 不确定办法如下 1.在解压的r ...
- 用sql的avg(score)求完平均值后,保存两位小数的方法(用于查询或视图)
查jx_score表的平均值,以哪次考试(testid)和科目分组(courseid) select testid, courseid, round(avg(`jx_score`.`score`),2 ...
- 12306登录爬虫 cookies版本
import requests import re import base64 cookies = None # 进入主页,保留cookies login_url = 'https://kyfw.12 ...
- Spark-Unit2-Spark交互式命令行与SparkWordCount
一.Spark交互式命令行 启动脚本:spark-shell 先启动spark:./start-all.sh 本地模式启动命令:/bin/spark-shell 集群模式启动命令:/bin/spark ...