浅谈HBase在SpringBoot项目里的应用(含HBaseUtil工具类)

背景:

项目这两个月开始使用HBase来读写数据,网上现成的HBase工具类要么版本混杂,要么只是Demo级别的简单实现,各方面都不完善;

而且我发现HBase查询有很多种方式,首先大方向上有 Get 和 Scan两种,其次行键、列族、列名(限定符)、列值(value)、时间戳版本等多种组合条件,还有各种过滤器的选择,协处理器的应用,所以必须根据自己项目需求和HBase行列设计来自定义HBase工具类和实现类!

经过我自己的研究整理,在此分享下初步的实现方案吧 ~

注:HBase版本:1.3.0 - CDH5.13.0 、SpringBoot版本:1.5.9

需要注意的是我用的是原生api,没有用和spring或者springboot整合的HbaseTemplate等,因为这方面资料较少而且听说并没有那么好用…

一、pom.xml 依赖

<dependency>
 <groupId>org.apache.hbase</groupId>
 <artifactId>hbase-client</artifactId>
 <version>1.3.0</version>
 <exclusions>
  <exclusion>
   <groupId>org.slf4j</groupId>
   <artifactId>slf4j-log4j12</artifactId>
  </exclusion>
  <exclusion>
   <groupId>log4j</groupId>
   <artifactId>log4j</artifactId>
  </exclusion>
  <exclusion>
   <groupId>javax.servlet</groupId>
   <artifactId>servlet-api</artifactId>
  </exclusion>
 </exclusions>
</dependency>

<dependency>
 <groupId>org.apache.hadoop</groupId>
 <artifactId>hadoop-common</artifactId>
 <version>2.6.0</version>
</dependency>

<dependency>
 <groupId>org.apache.hadoop</groupId>
 <artifactId>hadoop-mapreduce-client-core</artifactId>
 <version>2.6.0</version>
</dependency>

<dependency>
 <groupId>org.apache.hadoop</groupId>
 <artifactId>hadoop-mapreduce-client-common</artifactId>
 <version>2.6.0</version>
</dependency>

<dependency>
 <groupId>org.apache.hadoop</groupId>
 <artifactId>hadoop-hdfs</artifactId>
 <version>2.6.0</version>
</dependency>

二、application.yml 项目配置

此处我是自定义HBase配置,后面会有专门的配置类来加载这个配置

hbase:

conf:

confMaps:

'hbase.zookeeper.quorum' : 'cdh1:2181,cdh2:2181,cdh3:2181'

三、HbaseConfig 自定义配置类

HbaseConfig.java:

import org.springframework.boot.context.properties.ConfigurationProperties;
import org.springframework.context.annotation.Configuration;
import java.util.Map;

/**
 * Hbase-Conf配置
 *
 * @Author: yuanj
 * @Date: 2018/10/12 10:49
 */
@Configuration
@ConfigurationProperties(prefix = HbaseConfig.CONF_PREFIX)
public class HbaseConfig {

 public static final String CONF_PREFIX = "hbase.conf";

 private Map<String,String> confMaps;

 public Map<String, String> getconfMaps() {
  return confMaps;
 }
 public void setconfMaps(Map<String, String> confMaps) {
  this.confMaps = confMaps;
 }
}

不了解@ConfigurationProperties这个注解的兄弟可以去百度下,它可以将application.yml中的配置导入到该类的成员变量里!

也就是说springboot项目启动完成后 confMaps变量里已经存在一个key为 hbase.zookeeper.quorum ,value为 cdh1:2181,cdh2:2181,cdh3:2181的entry了!

四、HBaseUtils工具类

首先添加 SpringContextHolder 工具类,下面会用到:

package com.moerlong.credit.core;
import org.springframework.beans.BeansException;
import org.springframework.context.ApplicationContext;
import org.springframework.context.ApplicationContextAware;
import org.springframework.stereotype.Component;

/**
 * Spring的ApplicationContext的持有者,可以用静态方法的方式获取spring容器中的bean
 */
@Component
public class SpringContextHolder implements ApplicationContextAware {

 private static ApplicationContext applicationContext;

 @Override
 public void setApplicationContext(ApplicationContext applicationContext) throws BeansException {
  SpringContextHolder.applicationContext = applicationContext;
 }

 public static ApplicationContext getApplicationContext() {
  assertApplicationContext();
  return applicationContext;
 }

 @SuppressWarnings("unchecked")
 public static <T> T getBean(String beanName) {
  assertApplicationContext();
  return (T) applicationContext.getBean(beanName);
 }

 public static <T> T getBean(Class<T> requiredType) {
  assertApplicationContext();
  return applicationContext.getBean(requiredType);
 }

 private static void assertApplicationContext() {
  if (SpringContextHolder.applicationContext == null) {
   throw new RuntimeException("applicaitonContext属性为null,请检查是否注入了SpringContextHolder!");
  }
 }

}

HBaseUtils .java:

import com.moerlong.credit.config.HbaseConfig;
import com.moerlong.credit.core.SpringContextHolder;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.hbase.*;
import org.apache.hadoop.hbase.client.*;
import org.apache.hadoop.hbase.client.coprocessor.AggregationClient;
import org.apache.hadoop.hbase.client.coprocessor.LongColumnInterpreter;
import org.apache.hadoop.hbase.filter.*;
import org.apache.hadoop.hbase.util.Bytes;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
import org.springframework.context.annotation.DependsOn;
import org.springframework.stereotype.Component;
import org.springframework.util.StopWatch;

import java.io.IOException;
import java.util.ArrayList;
import java.util.List;
import java.util.Map;
import java.util.NavigableMap;
import java.util.concurrent.ExecutorService;
import java.util.concurrent.Executors;

@DependsOn("springContextHolder") //控制依赖顺序,保证springContextHolder类在之前已经加载
@Component
public class HBaseUtils {

 private Logger logger = LoggerFactory.getLogger(this.getClass());

 //手动获取hbaseConfig配置类对象
 private static HbaseConfig hbaseConfig = SpringContextHolder.getBean("hbaseConfig");

 private static Configuration conf = HBaseConfiguration.create();
 private static ExecutorService pool = Executors.newScheduledThreadPool(20); //设置连接池
 private static Connection connection = null;
 private static HBaseUtils instance = null;
 private static Admin admin = null;

 private HBaseUtils(){
  if(connection == null){
   try {
    //将hbase配置类中定义的配置加载到连接池中每个连接里
    Map<String, String> confMap = hbaseConfig.getconfMaps();
    for (Map.Entry<String,String> confEntry : confMap.entrySet()) {
     conf.set(confEntry.getKey(), confEntry.getValue());
    }
    connection = ConnectionFactory.createConnection(conf, pool);
    admin = connection.getAdmin();
   } catch (IOException e) {
    logger.error("HbaseUtils实例初始化失败!错误信息为:" + e.getMessage(), e);
   }
  }
 }
 //简单单例方法,如果autowired自动注入就不需要此方法
 public static synchronized HBaseUtils getInstance(){
  if(instance == null){
   instance = new HBaseUtils();
  }
  return instance;
 }

 /**
  * 创建表
  *
  * @param tableName   表名
  * @param columnFamily  列族(数组)
  */
 public void createTable(String tableName, String[] columnFamily) throws IOException{
  TableName name = TableName.valueOf(tableName);
  //如果存在则删除
  if (admin.tableExists(name)) {
   admin.disableTable(name);
   admin.deleteTable(name);
   logger.error("create htable error! this table {} already exists!", name);
  } else {
   HTableDescriptor desc = new HTableDescriptor(name);
   for (String cf : columnFamily) {
    desc.addFamily(new HColumnDescriptor(cf));
   }
   admin.createTable(desc);
  }
 }

 /**
  * 插入记录(单行单列族-多列多值)
  *
  * @param tableName   表名
  * @param row    行名
  * @param columnFamilys  列族名
  * @param columns   列名(数组)
  * @param values   值(数组)(且需要和列一一对应)
  */
 public void insertRecords(String tableName, String row, String columnFamilys, String[] columns, String[] values) throws IOException {
  TableName name = TableName.valueOf(tableName);
  Table table = connection.getTable(name);
  Put put = new Put(Bytes.toBytes(row));
  for (int i = 0; i < columns.length; i++) {
   put.addColumn(Bytes.toBytes(columnFamilys), Bytes.toBytes(columns[i]), Bytes.toBytes(values[i]));
   table.put(put);
  }
 }

 /**
  * 插入记录(单行单列族-单列单值)
  *
  * @param tableName   表名
  * @param row    行名
  * @param columnFamily  列族名
  * @param column   列名
  * @param value    值
  */
 public void insertOneRecord(String tableName, String row, String columnFamily, String column, String value) throws IOException {
  TableName name = TableName.valueOf(tableName);
  Table table = connection.getTable(name);
  Put put = new Put(Bytes.toBytes(row));
  put.addColumn(Bytes.toBytes(columnFamily), Bytes.toBytes(column), Bytes.toBytes(value));
  table.put(put);
 }

 /**
  * 删除一行记录
  *
  * @param tablename   表名
  * @param rowkey   行名
  */
 public void deleteRow(String tablename, String rowkey) throws IOException {
  TableName name = TableName.valueOf(tablename);
  Table table = connection.getTable(name);
  Delete d = new Delete(rowkey.getBytes());
  table.delete(d);
 }

 /**
  * 删除单行单列族记录
  * @param tablename   表名
  * @param rowkey   行名
  * @param columnFamily  列族名
  */
 public void deleteColumnFamily(String tablename, String rowkey, String columnFamily) throws IOException {
  TableName name = TableName.valueOf(tablename);
  Table table = connection.getTable(name);
  Delete d = new Delete(rowkey.getBytes()).deleteFamily(Bytes.toBytes(columnFamily));
  table.delete(d);
 }

 /**
  * 删除单行单列族单列记录
  *
  * @param tablename   表名
  * @param rowkey   行名
  * @param columnFamily  列族名
  * @param column   列名
  */
 public void deleteColumn(String tablename, String rowkey, String columnFamily, String column) throws IOException {
  TableName name = TableName.valueOf(tablename);
  Table table = connection.getTable(name);
  Delete d = new Delete(rowkey.getBytes()).deleteColumn(Bytes.toBytes(columnFamily), Bytes.toBytes(column));
  table.delete(d);
 }

 /**
  * 查找一行记录
  *
  * @param tablename   表名
  * @param rowKey   行名
  */
 public static String selectRow(String tablename, String rowKey) throws IOException {
  String record = "";
  TableName name=TableName.valueOf(tablename);
  Table table = connection.getTable(name);
  Get g = new Get(rowKey.getBytes());
  Result rs = table.get(g);
  NavigableMap<byte[], NavigableMap<byte[], NavigableMap<Long, byte[]>>> map = rs.getMap();
  for (Cell cell : rs.rawCells()) {
   StringBuffer stringBuffer = new StringBuffer().append(Bytes.toString(cell.getRow())).append("\t")
     .append(Bytes.toString(cell.getFamily())).append("\t")
     .append(Bytes.toString(cell.getQualifier())).append("\t")
     .append(Bytes.toString(cell.getValue())).append("\n");
   String str = stringBuffer.toString();
   record += str;
  }
  return record;
 }

 /**
  * 查找单行单列族单列记录
  *
  * @param tablename   表名
  * @param rowKey   行名
  * @param columnFamily  列族名
  * @param column   列名
  * @return
  */
 public static String selectValue(String tablename, String rowKey, String columnFamily, String column) throws IOException {
  TableName name=TableName.valueOf(tablename);
  Table table = connection.getTable(name);
  Get g = new Get(rowKey.getBytes());
  g.addColumn(Bytes.toBytes(columnFamily), Bytes.toBytes(column));
  Result rs = table.get(g);
  return Bytes.toString(rs.value());
 }

 /**
  * 查询表中所有行(Scan方式)
  *
  * @param tablename
  * @return
  */
 public String scanAllRecord(String tablename) throws IOException {
  String record = "";
  TableName name=TableName.valueOf(tablename);
  Table table = connection.getTable(name);
  Scan scan = new Scan();
  ResultScanner scanner = table.getScanner(scan);
  try {
   for(Result result : scanner){
    for (Cell cell : result.rawCells()) {
     StringBuffer stringBuffer = new StringBuffer().append(Bytes.toString(cell.getRow())).append("\t")
       .append(Bytes.toString(cell.getFamily())).append("\t")
       .append(Bytes.toString(cell.getQualifier())).append("\t")
       .append(Bytes.toString(cell.getValue())).append("\n");
     String str = stringBuffer.toString();
     record += str;
    }
   }
  } finally {
   if (scanner != null) {
    scanner.close();
   }
  }
  return record;
 }

 /**
  * 根据rowkey关键字查询报告记录
  *
  * @param tablename
  * @param rowKeyword
  * @return
  */
 public List scanReportDataByRowKeyword(String tablename, String rowKeyword) throws IOException {
  ArrayList<> list = new ArrayList<>();

  Table table = connection.getTable(TableName.valueOf(tablename));
  Scan scan = new Scan();

 //添加行键过滤器,根据关键字匹配
  RowFilter rowFilter = new RowFilter(CompareFilter.CompareOp.EQUAL, new SubstringComparator(rowKeyword));
  scan.setFilter(rowFilter);

  ResultScanner scanner = table.getScanner(scan);
  try {
   for (Result result : scanner) {
    //TODO 此处根据业务来自定义实现
    list.add(null);
   }
  } finally {
   if (scanner != null) {
    scanner.close();
   }
  }
  return list;
 }

 /**
  * 根据rowkey关键字和时间戳范围查询报告记录
  *
  * @param tablename
  * @param rowKeyword
  * @return
  */
 public List scanReportDataByRowKeywordTimestamp(String tablename, String rowKeyword, Long minStamp, Long maxStamp) throws IOException {
  ArrayList<> list = new ArrayList<>();

  Table table = connection.getTable(TableName.valueOf(tablename));
  Scan scan = new Scan();
  //添加scan的时间范围
  scan.setTimeRange(minStamp, maxStamp);

  RowFilter rowFilter = new RowFilter(CompareFilter.CompareOp.EQUAL, new SubstringComparator(rowKeyword));
  scan.setFilter(rowFilter);

  ResultScanner scanner = table.getScanner(scan);
  try {
   for (Result result : scanner) {
    //TODO 此处根据业务来自定义实现
    list.add(null);
   }
  } finally {
   if (scanner != null) {
    scanner.close();
   }
  }
  return list;
 }

 /**
  * 删除表操作
  *
  * @param tablename
  */
 public void deleteTable(String tablename) throws IOException {
  TableName name=TableName.valueOf(tablename);
  if(admin.tableExists(name)) {
   admin.disableTable(name);
   admin.deleteTable(name);
  }
 }

 /**
  * 利用协处理器进行全表count统计
  *
  * @param tablename
  */
 public Long countRowsWithCoprocessor(String tablename) throws Throwable {
  TableName name=TableName.valueOf(tablename);
  HTableDescriptor descriptor = admin.getTableDescriptor(name);

  String coprocessorClass = "org.apache.hadoop.hbase.coprocessor.AggregateImplementation";
  if (! descriptor.hasCoprocessor(coprocessorClass)) {
   admin.disableTable(name);
   descriptor.addCoprocessor(coprocessorClass);
   admin.modifyTable(name, descriptor);
   admin.enableTable(name);
  }

  //计时
  StopWatch stopWatch = new StopWatch();
  stopWatch.start();

  Scan scan = new Scan();
  AggregationClient aggregationClient = new AggregationClient(conf);

  Long count = aggregationClient.rowCount(name, new LongColumnInterpreter(), scan);

  stopWatch.stop();
  System.out.println("RowCount:" + count + ",全表count统计耗时:" + stopWatch.getTotalTimeMillis());

  return count;
 }
}

五、使用

接下来只需要在项目业务类里注入hbaseUtils就可以使用了:

@Autowired

private HBaseUtils hBaseUtils;

补充知识:springboot整合Hbase

springboot项目需要整合SpringCloud

依赖

    <dependency>
      <groupId>org.apache.hbase</groupId>
      <artifactId>hbase-shaded-client</artifactId>
      <version>1.2.6</version>
    </dependency>
<!---->

yml配置:

自定义配置读取zookeeper配置

hbase:

zookeeper:

quorum: hbase126-node2:2181

config配置:

import net.cc.commons.exception.CCRuntimeException;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.HConstants;
import org.apache.hadoop.hbase.client.Connection;
import org.apache.hadoop.hbase.client.ConnectionFactory;
import org.springframework.beans.factory.annotation.Value;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
import org.springframework.context.annotation.Scope;

import java.io.IOException;
import java.util.function.Supplier;

/**
* @Author wangqiubao
* @Date 2019/9/24 15:28
* @Description
**/
@Configuration
public class UcareHbaseConfiguration {
  /**
   * 读取HBase的zookeeper地址
   */
  @Value("${hbase.zookeeper.quorum}")
  private String quorum;

  /**
   * 配置HBase连接参数
   *
   * @return
   */
  @Bean
  public org.apache.hadoop.conf.Configuration hbaseConfig() {
    org.apache.hadoop.conf.Configuration config = HBaseConfiguration.create();
    config.set(HConstants.ZOOKEEPER_QUORUM, quorum);
    return config;
  }
  //每次调用get方法就会创建一个Connection
  @Bean
  public Supplier<Connection> hbaseConnSupplier() {
    return () -> {
      try {
        return hbaseConnection();
      } catch (IOException e) {
        throw new CCRuntimeException(e);
      }
    };
  }

  @Bean
  //@Scope标明模式,默认单例模式. prototype多例模式
  //若是在其他类中直接@Autowired引入的,多例就无效了,因为那个类在初始化的时候,已经创建了创建了这个bean了,之后调用的时候,不会重新创建,若是想要实现多例,就要每次调用的时候,手动获取bean
  @Scope(value = "prototype")
  public Connection hbaseConnection() throws IOException {
    return ConnectionFactory.createConnection(hbaseConfig());
  }
}

使用

spring管理

  /**
   * 内部已实现线程安全的连接池
   */
  @Autowired
  private Connection hbaseConnection;

插入/更新数据

public void aaaa() throws IOException {
  try (Table table = hbaseConnection.getTable(TableName.valueOf("表名"))) {//获取表连接
    //配置一条数据
    // 行键
    Put put = new Put(Bytes.toBytes("key主键"));
    put.addColumn(Bytes.toBytes("列族"), Bytes.toBytes("列"), Bytes.toBytes("值"));
    .....//每个有数据的列都要一个addColumn
    //put插入数据
    table.put(put);
  }
}

查询

根据主键查询内容

try (Table table = hbaseConnection.getTable(TableName.valueOf("表名"))) {
  Result result = table.get(new Get(asRowKey(date, acid)));
  if (result == null) return null;

  // 列名为starttime,最后一条就是该航班最新的航迹
  Cell latestCell = Iterables.getLast(result.listCells());
  return AdsbTrackProto.AdsbTrack.parseFrom(CellUtil.cloneValue(latestCell));
}

以上这篇浅谈HBase在SpringBoot项目里的应用(含HBaseUtil工具类)就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持我们。

(0)

相关推荐

  • SpringBoot+Maven 多模块项目的构建、运行、打包实战

    本篇文章主要介绍了SpringBoot+Maven 多模块项目的构建.运行.打包,分享给大家,具体如下: 项目使用的工具: IntelliJ IDEA JDK 1.8 apache-maven-3.3.9 项目的目录: 主项目 springboot-multi 子模块 entity.dao.service.web 一.使用IDEA创建一个SpringBoot项目 : File -> new -> Project 项目名称为springboot-multi 二.删除项目中的src目录,把pom.

  • SpringBoot自动配置之自定义starter的实现代码

    前言:前面已经介绍了自动配置的很多原理,现在我们着手自己定义一个starter. 需求:自定义redis-starter,要求当导入redis坐标后,SpringBoot自动创建Jedis的Bean.正式开始之前,我们可以查看Mybatis的起步依赖是如果实现自动配置的.我这里就省略了,大家根据之前的分析文章,自己看源码即可. 一.先创建一个SpringBoot工程redis-spring-boot-autoconfigure,该工程中添加jedis依赖,并且创建一个自动配置类RedisAuto

  • springboot项目监控开发小用例(实例分析)

    Spring Boot Spring Boot是由Pivotal团队提供的全新框架,其设计目的是用来简化新Spring应用的初始搭建以及开发过程.该框架使用了特定的方式来进行配置,从而使开发人员不再需要定义样板化的配置.通过这种方式,Spring Boot致力于在蓬勃发展的快速应用开发领域(rapid application development)成为领导者. SpringBoot简介 SpringBoot是由Pivotal团队在2013年开始研发.2014年4月发布第一个版本的全新开源的轻量

  • h2database在springboot中的使用教程

    h2为轻量级数据库,使用特别方便,它可以不使用数据库服务器,直接嵌入到java程序中.可以配置持久化,同样也可以不持久化(数据在内存中)进程结束后,数据就释放,用做测试和演示特别方便.自带后台管理,非常方便,开源免费 类库,使用maven简易安装 可以同应用程序打包在一起发布 可持久化,也可以直接基于内存不保留数据,适合于做单元测试 maven依赖 <dependencies> <dependency> <groupId>org.springframework.boot

  • 浅谈HBase在SpringBoot项目里的应用(含HBaseUtil工具类)

    背景: 项目这两个月开始使用HBase来读写数据,网上现成的HBase工具类要么版本混杂,要么只是Demo级别的简单实现,各方面都不完善: 而且我发现HBase查询有很多种方式,首先大方向上有 Get 和 Scan两种,其次行键.列族.列名(限定符).列值(value).时间戳版本等多种组合条件,还有各种过滤器的选择,协处理器的应用,所以必须根据自己项目需求和HBase行列设计来自定义HBase工具类和实现类! 经过我自己的研究整理,在此分享下初步的实现方案吧 ~ 注:HBase版本:1.3.0

  • 浅谈如何把Node项目部署到服务器上

    目录 1. 如何合理选购一台服务器 1.1. 服务器位置的选择: 1.2. 服务器镜像的选择: 1.3. 服务器系统盘存储的选择: 1.4. 服务器带宽选择: 1.5. 服务器规格选择: 2. 如何将域名解析到服务器上 3. 服务器配套软件的安装和环境配置 4. 通过命令行上传自己的网站到服务器 5. 网站部署和运维 5.1. 安装应用 5.2. 启动应用 1. 如何合理选购一台服务器 对于服务器的选择,我们主要有以下几种选择: 1. 阿里云: 2. 腾讯云: 3. 华为云: 4. 亚马逊云:

  • 浅谈jquery的html方法里包含特殊字符的处理

    在使用jquery的html()方法时,有时候里面添加的html代码含有一些特殊字符,需要进行转义. 如下例子: inst_html = "<a style=color:white' onmouseover = '"; inst_html += "javascript:showme('"+inst.instId+"_"+valId+"');"; inst_html += "' "; $("#

  • 浅谈redis缓存在项目中的使用

    背景 Redis 是一个开源的内存数据结构存储系统. 可以作为数据库.缓存和消息中间件使用. 支持多种类型的数据结构. Redis 内置了 复制(replication),LUA脚本(Lua scripting), LRU驱动事件(LRU eviction),事务(transactions) 和不同级别的 磁盘持久化(persistence). 通过 Redis 哨兵(Sentinel)和 Redis 集群(Cluster)的自动分区,提供高可用性(high availability). 基本数

  • 浅谈什么是SpringBoot异常处理自动配置的原理

    异常处理自动配置 ErrorMvcAutoConfiguration自动配置类自动配置了处理规则,给容器中注册了多种组件 errorAttributes组件,类型为DefaultErrorAttributes.这个组件定义错误页面中可以包含哪些数据 basicErrorController组件,类型为BasicErrorController.处理默认/error路径的请求,new一个id为error的ModelAndView对象来响应页面 error组件,类型为View.响应的是默认错误页面 b

  • 如何在SpringBoot项目里进行统一异常处理

    目录 1.处理前 2.进行系统异常全局处理 3.进行自定义异常处理 效果 前言: 需要了解的知识: @ControllerAdvice的作用 1.处理前 异常代码: /** * 根据id获取医院设置 * * @param id 查看的id编号 * @return */ @ApiOperation(value = "根据id获取医院设置") @GetMapping("/findHospById/{id}") public Result findHospById(@Pa

  • 浅谈PyQt5 的帮助文档查找方法,可以查看每个类的方法

    事情是这样的,我在python中安装了PyQt5后,想查看QtGui模块中的类QMainWindow有哪些方法, 如何查看呢? 解决方法: 1.原来在安装PyQt5时相应的帮助文档已经在安装目录里面了. 2.打开 python安装目录\C:\Users\Administrator\AppData\Local\Programs\Python\Python35-32\Lib\site-packages\PyQt5\doc\html 3.打开class_reference.html 以上这篇浅谈PyQ

  • SpringBoot项目如何将Bean注入到普通类中

    目录 如何将Bean注入到普通类中 Spring管理的类获得一个注入的Bean方式 非Spring管理的类获得一个注入的Bean方式 普通类中通过ApplicationContext上下文获得Bean 将ApplicationContext传入普通类中 在普通类中如何获取Bean节点 如何将Bean注入到普通类中 Spring管理的类获得一个注入的Bean方式 @Autowired是一种注解,可以对成员变量.方法和构造函数进行标注,来完成自动装配的工作,自动执行当前方法,如果方法有参数,会在IO

  • 浅谈webpack编译vue项目生成的代码探索

    本文介绍了webpack编译vue项目生成的代码探索,分享给大家,具体如下: 前言 往 main.js 里写入最简单的 vue 项目结构如下 import Vue from 'vue'; import App from './App.vue'; new Vue({ el: '#app', template: '<App/>', components: { App } }) App.vue 如下 <template> <div id="app"> &l

  • 浅谈springboot内置tomcat和外部独立部署tomcat的区别

    前两天,我去面了个试,面试官问了我个问题,独立部署的tomcat跟springboot内置的tomcat有什么区别,为什么存在要禁掉springboot的tomcat然后将项目部署到独立的tomcat当中? 我就想,不都一个样?独立部署的tomcat可以配置优化?禁AJP,开多线程,开nio?而且springboot内置的tomcat多方便,部署上服务器写个java脚本运行即可.现在考虑下有什么条件能优于内置tomcat的. 1.tomcat的优化配置多线程?内置的也可以配置多线程 server

随机推荐