<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/">
  <channel>
    <title>配置 on LeoChu Space</title>
    <link>https://leochu.work/blog/tags/%E9%85%8D%E7%BD%AE/</link>
    <description>Recent content in 配置 on LeoChu Space</description>
    <generator>Hugo</generator>
    <language>zh-cn</language>
    <lastBuildDate>Sun, 01 Feb 2026 00:00:00 +0000</lastBuildDate>
    <atom:link href="https://leochu.work/blog/tags/%E9%85%8D%E7%BD%AE/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>CDH基础配置及优化</title>
      <link>https://leochu.work/blog/tech/bigdata/cdh%E5%9F%BA%E7%A1%80%E9%85%8D%E7%BD%AE%E5%8F%8A%E4%BC%98%E5%8C%96/</link>
      <pubDate>Sun, 01 Feb 2026 00:00:00 +0000</pubDate>
      <guid>https://leochu.work/blog/tech/bigdata/cdh%E5%9F%BA%E7%A1%80%E9%85%8D%E7%BD%AE%E5%8F%8A%E4%BC%98%E5%8C%96/</guid>
      <description>&lt;h1 id=&#34;一hive中文注释乱码&#34;&gt;一、hive中文注释乱码&lt;/h1&gt;
&lt;h2 id=&#34;1设置-hive-元数据库字符集&#34;&gt;&lt;em&gt;1、设置 hive 元数据库字符集&lt;/em&gt;&lt;/h2&gt;
&lt;p&gt;&lt;em&gt;show create database hive;&lt;/em&gt;&lt;/p&gt;
&lt;p&gt;&lt;img loading=&#34;lazy&#34; src=&#34;https://leochu.work/blog/resource/019d0a6a-72c9-7608-ac3a-0a57f498e4fd-image.png&#34;&gt;&lt;/p&gt;
&lt;p&gt;&lt;em&gt;查看为 utf8，需变更为 latin1&lt;/em&gt;&lt;/p&gt;
&lt;p&gt;alter database hive character set latin1; &lt;/p&gt;
&lt;p&gt;&lt;img loading=&#34;lazy&#34; src=&#34;https://leochu.work/blog/resource/019d0a6b-d35a-7499-96cd-9281218f8e88-image.png&#34;&gt;&lt;/p&gt;
&lt;h2 id=&#34;2更改如下表字段为字符集编码为-utf8&#34;&gt;&lt;em&gt;2、更改如下表字段为字符集编码为 utf8&lt;/em&gt;&lt;/h2&gt;
&lt;p&gt;①修改表字段注解和表注解&lt;br&gt;
alter table COLUMNS_V2 modify column COMMENT varchar(256) character set utf8;&lt;br&gt;
alter table TABLE_PARAMS modify column PARAM_VALUE varchar(4000) character set utf8;&lt;br&gt;
② 修改分区字段注解：&lt;br&gt;
alter table PARTITION_PARAMS modify column PARAM_VALUE varchar(4000) character set utf8 ;&lt;br&gt;
alter table PARTITION_KEYS modify column PKEY_COMMENT varchar(4000) character set utf8;&lt;br&gt;
③修改索引注解：&lt;br&gt;
alter table INDEX_PARAMS modify column PARAM_VALUE varchar(4000) character set utf8;&lt;/p&gt;</description>
    </item>
    <item>
      <title>关于maven项目的配置文件</title>
      <link>https://leochu.work/blog/tech/engineering/maven%E9%A1%B9%E7%9B%AE%E9%85%8D%E7%BD%AE%E6%96%87%E4%BB%B6/</link>
      <pubDate>Sun, 15 Oct 2023 00:00:00 +0000</pubDate>
      <guid>https://leochu.work/blog/tech/engineering/maven%E9%A1%B9%E7%9B%AE%E9%85%8D%E7%BD%AE%E6%96%87%E4%BB%B6/</guid>
      <description>&lt;p&gt;把项目的配置文件按运行环境做一下区分，比如开发环境和线上环境使用的使用不同的配置文件，这里我们基于项目的 &lt;code&gt;resoures/&lt;/code&gt; 目录来实现：&lt;/p&gt;
&lt;pre tabindex=&#34;0&#34;&gt;&lt;code&gt;# resoures 目录
.
├── env
│   ├── config.dev.properties
│   └── config.prod.properties
└── config.properties
&lt;/code&gt;&lt;/pre&gt;&lt;p&gt;我们创建了一个 &lt;code&gt;config.properties&lt;/code&gt; 文件来配置项目的常用配置数据，如， &lt;code&gt;kafaka&lt;/code&gt; 、 &lt;code&gt;redis&lt;/code&gt; 等连接配置等。&lt;/p&gt;
&lt;p&gt;然后创建一个 &lt;code&gt;env&lt;/code&gt; 子目录，并创建两个环境对应的配置文件，我们希望不同的环境当中使用不同的配置。当然，光是创建这些文件，是无法让文件实现自动按照运行环境自动实现文件匹配的，我们还需要配置 &lt;code&gt;pom.xml&lt;/code&gt; 文件：&lt;/p&gt;
&lt;p&gt;首先，找到 &lt;code&gt;&amp;lt;build&amp;gt;&lt;/code&gt; 配置字段，添加文件路径：&lt;/p&gt;
&lt;pre tabindex=&#34;0&#34;&gt;&lt;code&gt;&amp;lt;build&amp;gt;
    &amp;lt;!-- Loading all ${} --&amp;gt;
    &amp;lt;filters&amp;gt;
        &amp;lt;filter&amp;gt;src/main/resources/env/config.${env}.properties&amp;lt;/filter&amp;gt;
    &amp;lt;/filters&amp;gt;
    &amp;lt;!-- Map ${} into resources --&amp;gt;
    &amp;lt;resources&amp;gt;
        &amp;lt;resource&amp;gt;
            &amp;lt;directory&amp;gt;src/main/resources&amp;lt;/directory&amp;gt;
            &amp;lt;filtering&amp;gt;true&amp;lt;/filtering&amp;gt;
            &amp;lt;includes&amp;gt;
                &amp;lt;include&amp;gt;*.properties&amp;lt;/include&amp;gt;
            &amp;lt;/includes&amp;gt;
        &amp;lt;/resource&amp;gt;
    &amp;lt;/resources&amp;gt;
    &amp;lt;!-- 省略之后若干行 --&amp;gt;
&amp;lt;/build&amp;gt;
&lt;/code&gt;&lt;/pre&gt;&lt;p&gt;上述代码目的是告诉构建工具，在构建的时候需要加载 &lt;code&gt;resoures&lt;/code&gt; 目录的配置文件参与构建，并且使用 &lt;code&gt;${env}&lt;/code&gt; 环境变量来决定具体加载的名称。&lt;/p&gt;
&lt;p&gt;因此，我们还需要指定 &lt;code&gt;${env}&lt;/code&gt; 的环境变量配置，在 &lt;code&gt;&amp;lt;profiles&amp;gt;&lt;/code&gt; 标签下，移除默认的 &lt;code&gt;&amp;lt;profile&amp;gt;&lt;/code&gt; 配置内容，新建两份环境配置 &lt;code&gt;dev&lt;/code&gt; 和 &lt;code&gt;prod&lt;/code&gt; 的 &lt;code&gt;profile&lt;/code&gt; 文件配置：&lt;/p&gt;</description>
    </item>
    <item>
      <title>yarn队列设置</title>
      <link>https://leochu.work/blog/tech/bigdata/yarn%E9%98%9F%E5%88%97%E8%AE%BE%E7%BD%AE/</link>
      <pubDate>Sun, 28 May 2023 00:00:00 +0000</pubDate>
      <guid>https://leochu.work/blog/tech/bigdata/yarn%E9%98%9F%E5%88%97%E8%AE%BE%E7%BD%AE/</guid>
      <description>&lt;p&gt;在大数据平台运维中，会经常遇到&lt;strong&gt;集群资源争抢的问题&lt;/strong&gt;。因为在公司内部，Hadoop Yarn 集群一般会被多个业务、多个用户同时使用，共享 Yarn 资源。此时，如果不对集群资源做规划和管理的话，那么就会出现 Yarn 的资源被某一个用户提交的 Application（App）占满，而其他用户只能等待；或者也可能会出现集群还有很多剩余资源，但 App 就是无法使用的情况。&lt;/p&gt;
&lt;p&gt;如何解决这个问题呢？此时就需要用到 Hadoop 中提供的&lt;strong&gt;资源调度器&lt;/strong&gt;。&lt;/p&gt;
&lt;h3 id=&#34;yarn-多用户资源管理策略&#34;&gt;&lt;strong&gt;Yarn 多用户资源管理策略&lt;/strong&gt;&lt;/h3&gt;
&lt;p&gt;Yarn 提供了可插拔的资源调度算法，用于解决 App 之间资源竞争的问题。在 Yarn 中有三种资源调度器可供选择，即 FIFO Scheduler、Capacity Scheduler、Fair Scheduler，目前使用比较多的是 Fair Scheduler 和 Capacity Scheduler。下面对这三种资源调度器分别进行介绍。&lt;/p&gt;
&lt;h4 id=&#34;1-fifo-scheduler&#34;&gt;&lt;strong&gt;1. FIFO Scheduler&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;在 Hadoop 1.x 系列版本中，默认使用的调度器是 FIFO，它采用队列方式将每个任务按照时间先后顺序进行服务。比如排在最前面的任务需要若干 Map Task 和 Reduce Task，当发现有空闲的服务器节点时就分配给这个任务，直到任务执行完毕。&lt;/p&gt;
&lt;h4 id=&#34;2-capacity-scheduler&#34;&gt;&lt;strong&gt;2. Capacity Scheduler&lt;/strong&gt;&lt;/h4&gt;
&lt;p&gt;在 Hadoop 2.x/3.x 系列版本中，默认使用的调度器是 Capacity Scheduler（容量调度器），这是一种&lt;strong&gt;多用户、多队列&lt;/strong&gt;的资源调度器。每个队列可以配置资源量，可限制每个用户、每个队列的并发运行作业量，也可限制每个作业使用的内存量；每个用户的作业有优先级，在单个队列中，作业按照先来先服务（实际上是先按照优先级，优先级相同的再按照作业提交时间）的原则进行调度。&lt;/p&gt;
&lt;p&gt;容量资源调度器，支持多队列，&lt;strong&gt;但默认情况下只有 root.default 这一个队列&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;当不同用户提交任务时，任务都会在这个队列里按照先进先出策略执行调度，很明显，单个队列会大大降低多用户的资源使用率。&lt;/p&gt;
&lt;p&gt;因此，要使用容量资源调度，一定要配置多个队列，每个队列可配置一定比率的资源量（CPU、内存）；同时为了防止同一个用户的任务独占队列的所有资源，调度器会对同一个用户提交的任务所占资源量进行限定。&lt;/p&gt;
&lt;p&gt;举个简单的例子，下图是容量调度器中配置好的一个队列树：&lt;/p&gt;
&lt;p&gt;&lt;img alt=&#34;队列树&#34; loading=&#34;lazy&#34; src=&#34;https://cdn.nlark.com/yuque/0/2022/png/21887514/1646927210814-732f7f8b-7cb1-4dc5-b649-f542a504f26b.png&#34;&gt;&lt;/p&gt;
&lt;p&gt;上图通过队列树方式对 Yarn 集群资源做了一个划分，可以看到，在 root 队列下面定义了两个子队列 dev 和 test，分别占 30% 和 70% 的 Yarn 集群资源；而 dev 队列又被分成了 dev1 和 dev2 两个子队列，分别占用 dev 队列 30% 中的 40% 和 60% 的 Yarn 集群资源。&lt;/p&gt;</description>
    </item>
    <item>
      <title>Ranger配置大数据组件</title>
      <link>https://leochu.work/blog/tech/bigdata/ranger%E9%85%8D%E7%BD%AE%E5%A4%A7%E6%95%B0%E6%8D%AE%E7%BB%84%E4%BB%B6/</link>
      <pubDate>Sun, 02 Apr 2023 00:00:00 +0000</pubDate>
      <guid>https://leochu.work/blog/tech/bigdata/ranger%E9%85%8D%E7%BD%AE%E5%A4%A7%E6%95%B0%E6%8D%AE%E7%BB%84%E4%BB%B6/</guid>
      <description>&lt;p&gt;1.开启ranger-hive ranger-hdfs插件
2.修改hdfs配置
1.开启hdfs认证
hadoop.security.authorization = true&lt;/p&gt;</description>
    </item>
    <item>
      <title>impala配置调优</title>
      <link>https://leochu.work/blog/tech/bigdata/impala%E9%85%8D%E7%BD%AE%E8%B0%83%E4%BC%98/</link>
      <pubDate>Sun, 27 Nov 2022 00:00:00 +0000</pubDate>
      <guid>https://leochu.work/blog/tech/bigdata/impala%E9%85%8D%E7%BD%AE%E8%B0%83%E4%BC%98/</guid>
      <description>&lt;h6 id=&#34;impala-daemon-命令行参数高级配置代码段安全阀&#34;&gt;&lt;strong&gt;Impala Daemon 命令行参数高级配置代码段（安全阀）&lt;/strong&gt;&lt;/h6&gt;
&lt;pre tabindex=&#34;0&#34;&gt;&lt;code&gt;-use_local_tz_for_unix_timestamp_conversions=true
-convert_legacy_hive_parquet_utc_timestamps=true
&lt;/code&gt;&lt;/pre&gt;&lt;p&gt;在hive中，一个中文字符长度为1&lt;/p&gt;
&lt;p&gt;在impala中，一个中文字符长度为3&lt;/p&gt;</description>
    </item>
    <item>
      <title>hive设置spark参数</title>
      <link>https://leochu.work/blog/tech/bigdata/hive%E8%AE%BE%E7%BD%AEspark%E5%8F%82%E6%95%B0/</link>
      <pubDate>Sun, 02 Oct 2022 00:00:00 +0000</pubDate>
      <guid>https://leochu.work/blog/tech/bigdata/hive%E8%AE%BE%E7%BD%AEspark%E5%8F%82%E6%95%B0/</guid>
      <description>&lt;div class=&#34;highlight&#34;&gt;&lt;pre tabindex=&#34;0&#34; style=&#34;color:#f8f8f2;background-color:#272822;-moz-tab-size:4;-o-tab-size:4;tab-size:4;-webkit-text-size-adjust:none;&#34;&gt;&lt;code class=&#34;language-shell&#34; data-lang=&#34;shell&#34;&gt;&lt;span style=&#34;display:flex;&#34;&gt;&lt;span&gt;set spark.master&lt;span style=&#34;color:#f92672&#34;&gt;=&lt;/span&gt;yarn-cluster;          &lt;span style=&#34;color:#75715e&#34;&gt;#设置spark提交模式&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style=&#34;display:flex;&#34;&gt;&lt;span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style=&#34;display:flex;&#34;&gt;&lt;span&gt;set hive.execution.engine&lt;span style=&#34;color:#f92672&#34;&gt;=&lt;/span&gt;spark;         &lt;span style=&#34;color:#75715e&#34;&gt;#设置计算引擎&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style=&#34;display:flex;&#34;&gt;&lt;span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style=&#34;display:flex;&#34;&gt;&lt;span&gt;set spark.yarn.queue&lt;span style=&#34;color:#f92672&#34;&gt;=&lt;/span&gt;queue_name;      &lt;span style=&#34;color:#75715e&#34;&gt;#设置作业提交队列&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style=&#34;display:flex;&#34;&gt;&lt;span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style=&#34;display:flex;&#34;&gt;&lt;span&gt;set spark.app.name&lt;span style=&#34;color:#f92672&#34;&gt;=&lt;/span&gt;job_name;         &lt;span style=&#34;color:#75715e&#34;&gt;#设置作业名称&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style=&#34;display:flex;&#34;&gt;&lt;span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style=&#34;display:flex;&#34;&gt;&lt;span&gt;set spark.executor.instances&lt;span style=&#34;color:#f92672&#34;&gt;=&lt;/span&gt;20;         &lt;span style=&#34;color:#75715e&#34;&gt;#设置执行器个数&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style=&#34;display:flex;&#34;&gt;&lt;span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style=&#34;display:flex;&#34;&gt;&lt;span&gt;set spark.executor.cores&lt;span style=&#34;color:#f92672&#34;&gt;=&lt;/span&gt;4;            &lt;span style=&#34;color:#75715e&#34;&gt;#设置执行器计算核个数&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style=&#34;display:flex;&#34;&gt;&lt;span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style=&#34;display:flex;&#34;&gt;&lt;span&gt;set spark.executor.memory&lt;span style=&#34;color:#f92672&#34;&gt;=&lt;/span&gt;8g;         &lt;span style=&#34;color:#75715e&#34;&gt;#设置执行器内存&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style=&#34;display:flex;&#34;&gt;&lt;span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style=&#34;display:flex;&#34;&gt;&lt;span&gt;set mapred.reduce.tasks&lt;span style=&#34;color:#f92672&#34;&gt;=&lt;/span&gt;600;           &lt;span style=&#34;color:#75715e&#34;&gt;#设置任务并行度&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style=&#34;display:flex;&#34;&gt;&lt;span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style=&#34;display:flex;&#34;&gt;&lt;span&gt;set spark.yarn.executor.memoryOverhead&lt;span style=&#34;color:#f92672&#34;&gt;=&lt;/span&gt;2048;   &lt;span style=&#34;color:#75715e&#34;&gt;#设置每个executor的jvm堆外内存&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style=&#34;display:flex;&#34;&gt;&lt;span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style=&#34;display:flex;&#34;&gt;&lt;span&gt;set spark.memory.fraction&lt;span style=&#34;color:#f92672&#34;&gt;=&lt;/span&gt;0.8;          &lt;span style=&#34;color:#75715e&#34;&gt;#设置内存比例(spark2.0+)&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style=&#34;display:flex;&#34;&gt;&lt;span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style=&#34;display:flex;&#34;&gt;&lt;span&gt;set spark.serializer&lt;span style=&#34;color:#f92672&#34;&gt;=&lt;/span&gt;org.apache.serializer.KyroSerializer;  &lt;span style=&#34;color:#75715e&#34;&gt;#设置对象序列化方式&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/div&gt;</description>
    </item>
    <item>
      <title>CDH组件参数调优</title>
      <link>https://leochu.work/blog/tech/bigdata/cdh%E7%BB%84%E4%BB%B6%E5%8F%82%E6%95%B0%E8%B0%83%E4%BC%98/</link>
      <pubDate>Sun, 29 May 2022 00:00:00 +0000</pubDate>
      <guid>https://leochu.work/blog/tech/bigdata/cdh%E7%BB%84%E4%BB%B6%E5%8F%82%E6%95%B0%E8%B0%83%E4%BC%98/</guid>
      <description>&lt;h3 id=&#34;1yarn参数调优&#34;&gt;1.YARN参数调优&lt;/h3&gt;
&lt;table&gt;
  &lt;thead&gt;
      &lt;tr&gt;
          &lt;th&gt;&lt;strong&gt;检查项&lt;/strong&gt;&lt;/th&gt;
          &lt;th&gt;&lt;strong&gt;当前值&lt;/strong&gt;&lt;/th&gt;
          &lt;th&gt;&lt;strong&gt;修改值&lt;/strong&gt;&lt;/th&gt;
      &lt;/tr&gt;
  &lt;/thead&gt;
  &lt;tbody&gt;
      &lt;tr&gt;
          &lt;td&gt;JobHistory Server 的 Java 堆栈大小&lt;/td&gt;
          &lt;td&gt;1GB&lt;/td&gt;
          &lt;td&gt;2GB&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;NodeManager 的 Java 堆栈大小&lt;/td&gt;
          &lt;td&gt;1GB&lt;/td&gt;
          &lt;td&gt;2GB&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;ResourceManager 的 Java 堆栈大小&lt;/td&gt;
          &lt;td&gt;1GB&lt;/td&gt;
          &lt;td&gt;2GB&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;容器内存  yarn.nodemanager.resource.memory-mb&lt;/td&gt;
          &lt;td&gt;24GB&lt;/td&gt;
          &lt;td&gt;32GB&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;最小容器内存   yarn.scheduler.minimum-allocation-mb&lt;/td&gt;
          &lt;td&gt;10GB&lt;/td&gt;
          &lt;td&gt;8GB&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;最大容器内存  yarn.scheduler.maximum-allocation-mb&lt;/td&gt;
          &lt;td&gt;40GB&lt;/td&gt;
          &lt;td&gt;56GB&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;Map 任务内存   mapreduce.map.memory.mb&lt;/td&gt;
          &lt;td&gt;0M&lt;/td&gt;
          &lt;td&gt;12GB&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;Reduce 任务内存   mapreduce.reduce.memory.mb&lt;/td&gt;
          &lt;td&gt;0M&lt;/td&gt;
          &lt;td&gt;24GB&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;Application Master容器内存  yarn.app.mapreduce.am.resource.mb&lt;/td&gt;
          &lt;td&gt;24GB&lt;/td&gt;
          &lt;td&gt;32GB&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;Map 任务 Java 选项库  mapreduce.map.java.opts&lt;/td&gt;
          &lt;td&gt;-Djava.net.preferIPv4Stack=true&lt;/td&gt;
          &lt;td&gt;-Dmapreduce.map.java.opts=-Xmx2048m&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;Reduce 任务 Java 选项库  mapreduce.reduce.java.opts&lt;/td&gt;
          &lt;td&gt;-Djava.net.preferIPv4Stack=true&lt;/td&gt;
          &lt;td&gt;-Dmapreduce.reduce.java.opts=-Xmx2048m&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;yarn.resourcemanager.scheduler.class&lt;/td&gt;
          &lt;td&gt;org.apache.hadoop.yarn.server.resourcemanager.scheduler.fair.FairScheduler&lt;/td&gt;
          &lt;td&gt;org.apache.hadoop.yarn.server.resourcemanager.scheduler.capacity.CapacityScheduler&lt;/td&gt;
      &lt;/tr&gt;
  &lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;yarn.scheduler.capacity.root.queues:&lt;/p&gt;
&lt;p&gt;当前值：&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;pre tabindex=&#34;0&#34; style=&#34;color:#f8f8f2;background-color:#272822;-moz-tab-size:4;-o-tab-size:4;tab-size:4;-webkit-text-size-adjust:none;&#34;&gt;&lt;code class=&#34;language-xml&#34; data-lang=&#34;xml&#34;&gt;&lt;span style=&#34;display:flex;&#34;&gt;&lt;span&gt;&lt;span style=&#34;color:#f92672&#34;&gt;&amp;lt;configuration&amp;gt;&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style=&#34;display:flex;&#34;&gt;&lt;span&gt;    &lt;span style=&#34;color:#f92672&#34;&gt;&amp;lt;property&amp;gt;&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style=&#34;display:flex;&#34;&gt;&lt;span&gt;        &lt;span style=&#34;color:#f92672&#34;&gt;&amp;lt;name&amp;gt;&lt;/span&gt;yarn.scheduler.capacity.root.queues&lt;span style=&#34;color:#f92672&#34;&gt;&amp;lt;/name&amp;gt;&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style=&#34;display:flex;&#34;&gt;&lt;span&gt;        &lt;span style=&#34;color:#f92672&#34;&gt;&amp;lt;value&amp;gt;&lt;/span&gt;default&lt;span style=&#34;color:#f92672&#34;&gt;&amp;lt;/value&amp;gt;&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style=&#34;display:flex;&#34;&gt;&lt;span&gt;    &lt;span style=&#34;color:#f92672&#34;&gt;&amp;lt;/property&amp;gt;&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style=&#34;display:flex;&#34;&gt;&lt;span&gt;    &lt;span style=&#34;color:#f92672&#34;&gt;&amp;lt;property&amp;gt;&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style=&#34;display:flex;&#34;&gt;&lt;span&gt;        &lt;span style=&#34;color:#f92672&#34;&gt;&amp;lt;name&amp;gt;&lt;/span&gt;yarn.scheduler.capacity.root.capacity&lt;span style=&#34;color:#f92672&#34;&gt;&amp;lt;/name&amp;gt;&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style=&#34;display:flex;&#34;&gt;&lt;span&gt;        &lt;span style=&#34;color:#f92672&#34;&gt;&amp;lt;value&amp;gt;&lt;/span&gt;100&lt;span style=&#34;color:#f92672&#34;&gt;&amp;lt;/value&amp;gt;&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style=&#34;display:flex;&#34;&gt;&lt;span&gt;    &lt;span style=&#34;color:#f92672&#34;&gt;&amp;lt;/property&amp;gt;&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style=&#34;display:flex;&#34;&gt;&lt;span&gt;    &lt;span style=&#34;color:#f92672&#34;&gt;&amp;lt;property&amp;gt;&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style=&#34;display:flex;&#34;&gt;&lt;span&gt;        &lt;span style=&#34;color:#f92672&#34;&gt;&amp;lt;name&amp;gt;&lt;/span&gt;yarn.scheduler.capacity.root.default.capacity&lt;span style=&#34;color:#f92672&#34;&gt;&amp;lt;/name&amp;gt;&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style=&#34;display:flex;&#34;&gt;&lt;span&gt;        &lt;span style=&#34;color:#f92672&#34;&gt;&amp;lt;value&amp;gt;&lt;/span&gt;100&lt;span style=&#34;color:#f92672&#34;&gt;&amp;lt;/value&amp;gt;&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style=&#34;display:flex;&#34;&gt;&lt;span&gt;    &lt;span style=&#34;color:#f92672&#34;&gt;&amp;lt;/property&amp;gt;&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style=&#34;display:flex;&#34;&gt;&lt;span&gt;&lt;span style=&#34;color:#f92672&#34;&gt;&amp;lt;/configuration&amp;gt;&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/div&gt;&lt;p&gt;修改值：&lt;/p&gt;</description>
    </item>
    <item>
      <title>取消HDP hive默认开启ACID配置</title>
      <link>https://leochu.work/blog/tech/bigdata/%E5%8F%96%E6%B6%88hdp-hive%E9%BB%98%E8%AE%A4%E5%BC%80%E5%90%AFacid%E9%85%8D%E7%BD%AE/</link>
      <pubDate>Sun, 20 Mar 2022 00:00:00 +0000</pubDate>
      <guid>https://leochu.work/blog/tech/bigdata/%E5%8F%96%E6%B6%88hdp-hive%E9%BB%98%E8%AE%A4%E5%BC%80%E5%90%AFacid%E9%85%8D%E7%BD%AE/</guid>
      <description>&lt;h3 id=&#34;问题描述&#34;&gt;问题描述&lt;/h3&gt;
&lt;p&gt;&lt;img alt=&#34;Pasted image 20231220150234.png&#34; loading=&#34;lazy&#34; src=&#34;https://leochu.work/blog/resource/Pasted%20image%2020231220150234.png&#34;&gt;&lt;/p&gt;
&lt;h3 id=&#34;原因排查&#34;&gt;原因排查&lt;/h3&gt;
&lt;p&gt;HDP 的 hive 使用的版本较高为3.1.0  ，默认建表都是使用 ACID 的事务表。而 HDP的spark版本较低为2.3 目前还不支持 hive 的 ACID 功能，因此无法读取 ACID 表的数据，准确来说是内表的数据。&lt;/p&gt;
&lt;h3 id=&#34;官方资料&#34;&gt;官方资料&lt;/h3&gt;
&lt;p&gt;spark issues 地址： &lt;a href=&#34;https://issues.apache.org/jira/browse/SPARK-15348&#34;&gt;SPARK-15348 Hive ACID&lt;/a&gt;&lt;/p&gt;
&lt;h3 id=&#34;解决方案&#34;&gt;解决方案&lt;/h3&gt;
&lt;p&gt;修改hive以下配置，重启hive&lt;/p&gt;
&lt;p&gt;hive.strict.managed.tables =false&lt;br&gt;
hive.create.as.insert.only =false&lt;br&gt;
metastore.create.as.acid =false&lt;/p&gt;
&lt;p&gt;&lt;img alt=&#34;Pasted image 20231220150309.png&#34; loading=&#34;lazy&#34; src=&#34;https://leochu.work/blog/resource/Pasted%20image%2020231220150309.png&#34;&gt;&lt;/p&gt;
&lt;p&gt;&lt;img alt=&#34;Pasted image 20231220150319.png&#34; loading=&#34;lazy&#34; src=&#34;https://leochu.work/blog/resource/Pasted%20image%2020231220150319.png&#34;&gt;&lt;/p&gt;
&lt;p&gt;&lt;img alt=&#34;Pasted image 20231220150325.png&#34; loading=&#34;lazy&#34; src=&#34;https://leochu.work/blog/resource/Pasted%20image%2020231220150325.png&#34;&gt;&lt;/p&gt;
&lt;h3 id=&#34;其他资料&#34;&gt;其他资料&lt;/h3&gt;
&lt;h4 id=&#34;hive-中支持的表类型和-acid-特性&#34;&gt;Hive 中支持的表类型和 ACID 特性&lt;/h4&gt;
&lt;table&gt;
  &lt;thead&gt;
      &lt;tr&gt;
          &lt;th&gt;&lt;/th&gt;
          &lt;th&gt;&lt;/th&gt;
          &lt;th&gt;&lt;/th&gt;
          &lt;th&gt;&lt;/th&gt;
          &lt;th&gt;&lt;/th&gt;
      &lt;/tr&gt;
  &lt;/thead&gt;
  &lt;tbody&gt;
      &lt;tr&gt;
          &lt;td&gt;表类型&lt;/td&gt;
          &lt;td&gt;ACID&lt;/td&gt;
          &lt;td&gt;文件格式&lt;/td&gt;
          &lt;td&gt;插入&lt;/td&gt;
          &lt;td&gt;更新 / 删除&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;托管表：CRUD 事务&lt;/td&gt;
          &lt;td&gt;是&lt;/td&gt;
          &lt;td&gt;ORC&lt;/td&gt;
          &lt;td&gt;是&lt;/td&gt;
          &lt;td&gt;是&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;托管表：仅插入式事务&lt;/td&gt;
          &lt;td&gt;是&lt;/td&gt;
          &lt;td&gt;任意格式&lt;/td&gt;
          &lt;td&gt;是&lt;/td&gt;
          &lt;td&gt;没有&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;托管表：临时&lt;/td&gt;
          &lt;td&gt;没有&lt;/td&gt;
          &lt;td&gt;任意格式&lt;/td&gt;
          &lt;td&gt;是&lt;/td&gt;
          &lt;td&gt;没有&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;外部表&lt;/td&gt;
          &lt;td&gt;没有&lt;/td&gt;
          &lt;td&gt;任意格式&lt;/td&gt;
          &lt;td&gt;是&lt;/td&gt;
          &lt;td&gt;没有&lt;/td&gt;
      &lt;/tr&gt;
  &lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;查看表的属性，指令：&lt;code&gt;desc formatted tb_name&lt;/code&gt;&lt;/p&gt;</description>
    </item>
  </channel>
</rss>
