久久精品五月,日韩不卡视频在线观看,国产精品videossex久久发布 ,久久av综合

站長資訊網
最全最豐富的資訊網站

聊聊MySQL全文索引怎么解決like模糊匹配查詢慢

聊聊MySQL全文索引怎么解決like模糊匹配查詢慢

程序員必備接口測試調試工具:立即使用
Apipost = Postman + Swagger + Mock + Jmeter
Api設計、調試、文檔、自動化測試工具
后端、前端、測試,同時在線協作,內容實時同步

模糊查詢,如查詢姓名包含”曉“的用戶,常見的寫法為 like "%曉%",MySQL里面他會全表掃描,數據量少還好,全表掃描也很快,隨著數據增加會變慢,上ES又很重。本篇文章就來給大家介紹like模糊匹配查詢慢解決之道——MySQL全文索引。

需求

需要模糊匹配查詢一個單詞

select * from t_phrase where LOCATE('昌',phrase) = 0;

select * from t_chinese_phrase where instr(phrase,'昌') > 0;

select * from t_chinese_phrase where phrase like '%昌%'

explain一下看看執行計劃

聊聊MySQL全文索引怎么解決like模糊匹配查詢慢

由explain的結果可知,雖然我們給phrase建了索引,但是查詢的時候,索引是失效的。

原因: mysql的索引是B+樹結構,InnoDB在模糊查詢數據時使用 "%xx" 會導致索引失效(此處就不展開講了)

從查詢時長上來看,花費時間:90ms

目前數據量:93230(9.3W)已經需要90ms,這個時間不太能接受,假如數據量增加,這個時間會不斷增長。

解決方案:

數據量不大的情況下,使用mysql的全文索引;
數據量比較大或者mysql的全文索引不達預期的情況下,可以考慮使用ES

下面主要是MySQL的全文索引相關.

全文索引介紹

1、發展歷史

  • 舊版的MySQL的全文索引只能用在MyISAM存儲引擎的char、varchar和text的字段上。

  • MySQL5.6.24上InnoDB引擎也加入了全文索引。

2、全文索引

  • 全文檢索(Full-Text Search) 是將存儲于數據庫中的整本書或整篇文章中的任意內容信息查找出來的技術。它可以根據需要獲得全文中有關章、節、段、詞等信息,也可以進行各種統計和分析

3、創建全文索引

若需對大量數據設置全文索引,建議先添加數據再創建索引。

1、創建表時創建全文索引

create table 表名( 字段名1, 字段名2, 字段名3, 字段名4, FULLTEXT full_index_name (字段名) )ENGINE=InnoDB;
登錄后復制

2、為已有表添加全文索引

create fulltext index 索引名稱 on 表名(字段名);

eg:

create table t_word (     id        int unsigned auto_increment comment '自增id' primary key,     uid       char(32)     not null comment '32位唯一id',     word      varchar(256) null comment '英文單詞',     translate varchar(256) null );  create fulltext index full_idx_translate     on t_word (translate);  create fulltext index full_idx_word     on t_word (word);  INSERT INTO t_word (id, uid, word, translate) VALUES (1, '9d592499c65648b0a9519206688ef3f9', 'lion', '獅子'); INSERT INTO t_word (id, uid, word, translate) VALUES (2, 'ce26ac4239514bc6af481bcb1d9b67df', 'panda', '熊貓'); INSERT INTO t_word (id, uid, word, translate) VALUES (3, 'a7d6042853c44904b68275daafb44702', 'tiger', '老虎'); INSERT INTO t_word (id, uid, word, translate) VALUES (4, 'f13bd0a8ecea44fc9ade1625eeb4cc3c', 'goat', '山羊'); INSERT INTO t_word (id, uid, word, translate) VALUES (5, '27d5cbfc93a046388d712085e567474f', 'sheep', '綿羊'); INSERT INTO t_word (id, uid, word, translate) VALUES (6, 'ed35df138cf348aa937781be8ee21cbf', 'lamb', '羊羔'); INSERT INTO t_word (id, uid, word, translate) VALUES (7, 'fba5861d9527440990276e999f47ef8f', 'buffalo', '水牛'); INSERT INTO t_word (id, uid, word, translate) VALUES (8, '3a72e76f210841b1939fff0d3d721375', 'bull', '公牛'); INSERT INTO t_word (id, uid, word, translate) VALUES (9, '272e0b28ea7a48248a86f17533bf9943', 'cow', '母牛'); INSERT INTO t_word (id, uid, word, translate) VALUES (10, '47127adface54e418e4c1b9980af6d16', 'calf', '小牛'); INSERT INTO t_word (id, uid, word, translate) VALUES (11, '10592499c65648b0a9519206688ef3f9', 'little lion', '小獅子'); INSERT INTO t_word (id, uid, word, translate) VALUES (12, '1bf095110b634a01bee5b31c5ee7ee0c', 'little cow', '母牛'); INSERT INTO t_word (id, uid, word, translate) VALUES (13, '4813e588cde54c30bd65bfdbb243ad1f', 'little calf', '小小牛'); INSERT INTO t_word (id, uid, word, translate) VALUES (14, '5e377e281ad344048b6938a638b78ccb', 'little bull', '小公牛'); INSERT INTO t_word (id, uid, word, translate) VALUES (15, '2855ad0da2964c7682c178eb8271f13d', 'little buffalo', '小水牛'); INSERT INTO t_word (id, uid, word, translate) VALUES (16, '72f24c9a77644d57a36f3bdf2b8116b0', 'little lamb', '小羊羔'); INSERT INTO t_word (id, uid, word, translate) VALUES (17, '2d592499c65648b0a9519206688ef3f9', 'I''m a big lion', '我是一只大獅子');
登錄后復制

3、刪除全文索引

alter table 表名 drop index 索引名;

4、全文索引使用

語法

MATCH(col1,col2,...) AGAINST(expr[search_modifier]) search_modifier: {     IN NATURAL LANGUAGE MODE     | IN NATURAL LANGUAGE MODE WITH QUERY EXPANSION     | IN BOOLEAN MODE     | WITH QUERY EXPANSION }
登錄后復制

4.1 IN NATURAL LANGUAGE MODE

自然語言模式是MySQL 默認 的全文檢索模式。自然語言模式不能使用操作符,不能指定關鍵詞必須出現或者必須不能出現等復雜查詢。

// 默認是使用 in natural language mode select * from t_word where match(word) against ('lion'); // 或者 顯示寫 select * from t_word where match(word) against ('lion' in natural language mode);
登錄后復制

登錄后復制

結果如下:

聊聊MySQL全文索引怎么解決like模糊匹配查詢慢

4.2 IN BOOLEAN MODE

BOOLEAN模式可以使用操作符,可以支持指定關鍵詞必須出現或者必須不能出現或者關鍵詞的權重高還是低等復雜查詢。推薦使用boolean模式

操作者 描述
為空 默認,包含該詞
+ 包括,這個詞必須存在。
排除,詞不得出現。
>(大于號) 包括,并提高排名值,查詢的結果會靠前
< 包括,并降低排名值,查詢的結果會靠后
() 將單詞分組為子表達式(允許將它們作為一組包括在內,排除在外,排名等等)。
? 否定單詞的排名值。
* 通配符在這個詞的結尾。
“” 定義短語(與單個單詞列表相對,整個短語匹配以包含或排除)。

示例:

// 默認是使用 in natural language mode select * from t_word where match(word) against ('lion'); // 或者 顯示寫 select * from t_word where match(word) against ('lion' in natural language mode);
登錄后復制

登錄后復制

聊聊MySQL全文索引怎么解決like模糊匹配查詢慢

// 排除包含lion記錄、查詢出包含cow或者little的記錄,提升包含calf單詞的排名,降低包含cow記錄的排名,查詢出以go開頭的記錄 select * from t_word where match(word) against ('-lion cow little >calf <cow  go*' in boolean mode) ;
登錄后復制

聊聊MySQL全文索引怎么解決like模糊匹配查詢慢

好像問題都解決了, 但是問題才剛開始


回到最開始的需求,我想模糊搜索

select * from t_word where  match(word) against('lio' in boolean mode);
登錄后復制

預期值:把包含lion的都查詢出來 實際結果:啥都沒有。

聊聊MySQL全文索引怎么解決like模糊匹配查詢慢

全匹配查詢的時候能查詢出來

select * from t_word where  match(translate) against('小水牛' in boolean mode);
登錄后復制

聊聊MySQL全文索引怎么解決like模糊匹配查詢慢

只查詢部分查詢不出來。如:下面只查詢 "小水" 或者"水牛" 都沒有數據

select * from t_word where  match(translate) against('小水' in boolean mode);
登錄后復制

聊聊MySQL全文索引怎么解決like模糊匹配查詢慢

奇怪了,這咋沒出來呢?

全文索引默認是只按照空格進行分詞的,所以當我完整的單個單詞去查詢的時候是能查出來的。但是使用部分單詞去查詢或者使用部分中文去查詢時,是查詢不出來數據的,像中文需要使用中文分詞器進行分詞。

中文分詞與全文索引

InnoDB默認的全文索引parser非常合適于Latin,因為Latin是通過空格來分詞的。但對于像中文,日文和韓文來說,沒有這樣的分隔符。一個詞可以由多個字來組成,所以我們需要用不同的方式來處理。在MySQL 5.7.6中我們能使用一個新的全文索引插件來處理它們:N-gram parser。

什么是N-gram?

在全文索引中,n-gram就是一段文字里面連續的n個字的序列。例如,用n-gram來對“齒輪傳動”來進行分詞,得到的結果如下:

N=1 : '齒', '輪', '傳', '動'; N=2 : '齒輪', '輪傳', '傳動'; N=3 : '齒輪傳', '輪傳動'; N=4 : '齒輪傳動';
登錄后復制

這個上面這個N是怎么去配置的?

查一下目前的值

show variables like '%token%';
登錄后復制

聊聊MySQL全文索引怎么解決like模糊匹配查詢慢

參數解析:

innodb_ft_min_token_size
默認3,表示最小3個字符作為一個關鍵詞,增大該值可減少全文索引的大小
innodb_ft_max_token_size
默認84,表示最大84個字符作為一個關鍵詞,限制該值可減少全文索引的大小
ngram_token_size
默認2,表示2個字符作為內置分詞解析器的一個關鍵詞,合法取值范圍是1-10,如對“abcd”建立全文索引,關鍵詞為’ab’,‘bc’,‘cd’ 當使用ngram分詞解析器時,innodb_ft_min_token_size和innodb_ft_max_token_size 無效

修改方式

方式1: 在my.cnf中修改/添加參數

[mysqld]ngram_token_size = 1
登錄后復制

方式2: 修改啟動參數

mysqld --ngram_token_size=1復制代碼
登錄后復制

參數均不可動態修改,修改后需重啟MySQL服務,并重新建立全文索引

實際使用

初始化測試數據

這里只提供部分測試數據,我下面sql使用全量數據,數據對不上

create table t_chinese_phrase (     id     int unsigned auto_increment comment 'id'         primary key,     phrase varchar(32) not null comment '詞組' )     collate = utf8mb4_general_ci;  INSERT INTO t_chinese_phrase (id, phrase) VALUES (278911, '阿昌族'); INSERT INTO t_chinese_phrase (id, phrase) VALUES (279253, '八一南昌起義'); INSERT INTO t_chinese_phrase (id, phrase) VALUES (282316, '昌明'); INSERT INTO t_chinese_phrase (id, phrase) VALUES (282317, '昌盛'); INSERT INTO t_chinese_phrase (id, phrase) VALUES (282318, '昌言'); INSERT INTO t_chinese_phrase (id, phrase) VALUES (286534, '東昌紙'); INSERT INTO t_chinese_phrase (id, phrase) VALUES (291525, '海昌藍'); INSERT INTO test.t_chinese_phrase (id, phrase) VALUES (346682, '繁榮昌盛'); INSERT INTO test.t_chinese_phrase (id, phrase) VALUES (282317, '昌盛'); INSERT INTO test.t_chinese_phrase (id, phrase) VALUES (287738, '繁盛'); INSERT INTO test.t_chinese_phrase (id, phrase) VALUES (287736, '繁榮');
登錄后復制

添加索引

mysql 全文索引使用倒排索引為 full inverted index
結構:{單詞,(單詞所在文檔的ID,單詞在具體文件中的位置)}

添加索引:

alter  table t_chinese_phrase add fulltext ful_phrase (phrase) with parser ngram;
登錄后復制

建完索引,我們可以通過查詢INFORMATION_SCHEMA.INNODB_FT_INDEX_CACHE和INFORMATION_SCHEMA.INNODB_FT_TABLE_TABLE來查詢哪些詞在全文索引里面。這是一個非常有用的調試工具。如果我們發現一個包含某個詞的文檔,沒有如我們所期望的那樣出現在查詢結果中,那么這個詞可能是因為某些原因不在全文索引里面。比如,它含有stopword,或者它的大小小于ngram_token_size等等。這個時候我們就可以通過查詢這兩個表來確認。下面是一個簡單的例子:

# test: 庫名  t_chinese_phrase: 表名字 SET GLOBAL innodb_ft_aux_table="test/t_chinese_phrase"; # 查詢分詞情況 SELECT * FROM INFORMATION_SCHEMA.INNODB_FT_INDEX_CACHE; # 查詢分詞情況 select * from information_schema.innodb_ft_index_table;
登錄后復制

查詢結果如下:

聊聊MySQL全文索引怎么解決like模糊匹配查詢慢

因為我們上面設置了分詞數是1,所以,可以看到都是按照一個詞進行分詞的。

字段解析:
FIRST_DOC_ID :word第一次出現的文檔ID
LAST_DOC_ID : word最后一次出現的文檔ID
DOC_COUNT :含有word的文檔個數
DOC_ID :當前文檔ID
POSITION : word 當在前文檔ID的位置

查詢

1、使用自然語言模式 NATURAL LANGUAGE MODE 查詢

在自然語言模式(NATURAL LANGUAGE MODE)下,文本的查詢被轉換為n-gram分詞查詢的并集

例如,當ngram_token_size = 1 時,(‘繁榮昌盛’)轉換為(‘繁 榮 昌 盛’)。下面一個例子:

SELECT * FROM t_chinese_phrase WHERE MATCH (phrase) AGAINST ('繁榮昌盛' in natural language mode) ;
登錄后復制

聊聊MySQL全文索引怎么解決like模糊匹配查詢慢

2、使用布爾模式(BOOLEAN MODE)查詢

布爾模式(BOOLEAN MODE)文本查詢被轉化為n-gram分詞的短語查詢

例如,當ngram_token_size = 1 時,(‘繁榮昌盛’)轉換為(‘”繁榮昌盛“’)。下面一個例子:

SELECT * FROM t_chinese_phrase WHERE MATCH (phrase) AGAINST ('繁榮昌盛' in boolean  mode) ;
登錄后復制

聊聊MySQL全文索引怎么解決like模糊匹配查詢慢

實際使用

回到我們最開始的查詢需求,看看實際的效果

查詢包含了“昌”的數據

SELECT * FROM t_chinese_phrase WHERE MATCH (phrase) AGAINST ('昌' IN boolean  MODE) ; SELECT * FROM t_chinese_phrase WHERE MATCH (phrase) AGAINST ('昌' ) order by id asc;
登錄后復制

聊聊MySQL全文索引怎么解決like模糊匹配查詢慢

可以看到結果:目前“昌”在任意位置都能被查詢到。

查詢執行計劃如下:

聊聊MySQL全文索引怎么解決like模糊匹配查詢慢

耗時31ms(不走索引是90ms),耗時差不多是之前的1/3

注意點

1、自然語言全文索引創建索引時的字段需與查詢的字段保持一致,即MATCH里的字段必須和FULLTEXT里的一模一樣;

2、自然語言檢索時,檢索的關鍵字在所有數據中不能超過50%(即常見詞),則不會檢索出結果。可以通過布爾檢索查詢;

3、在mysql的stopword中的單詞檢索不出結果。可通過

SELECT * FROM INFORMATION_SCHEMA.INNODB_FT_DEFAULT_STOPWORD
登錄后復制

查詢所有的stopword。遇到這種情況,有兩種解決辦法:

(1)stopword一般是mysql自建的,但可以通過設置ft_stopword_file變量為自定義文件,從而自己設置stopword,設置完成后需要重新創建索引。但不建議使用這種方法;

(2)使用布爾索引查詢

4、小于最短長度和大于最長長度的關鍵詞無法查出結果。可以通過設置對應的變量來改變長度限制,修改后需要重新創建索引。

myisam引擎下對應的變量名為ft_min_word_len和ft_max_word_len

innodb引擎下對應的變量名為innodb_ft_min_token_size和innodb_ft_max_token_size

5、MySQL5.7.6之前的版本不支持中文,需使用第三方插件

6、全文索引只能在 InnoDB(MySQL 5.6以后) 或 MyISAM 的表上使用,并且只能用于創建 char,varchar,text 類型的列。

贊(0)
分享到: 更多 (0)
?
網站地圖   滬ICP備18035694號-2    滬公網安備31011702889846號
久久精品五月,日韩不卡视频在线观看,国产精品videossex久久发布 ,久久av综合
久久中文精品| 免播放器亚洲| 日本午夜免费一区二区| 国产精品网在线观看| 国产精品成人一区二区网站软件| 亚洲欧美久久精品| 中文字幕日韩亚洲| 日韩欧美中文字幕在线视频| 麻豆一区二区在线| 久久国产免费| 欧美精品中文字幕亚洲专区| 欧美一级网站| 国产麻豆一区| 久久精品九色| 蜜臀精品一区二区三区在线观看| 久久精品福利| 在线免费观看亚洲| 国产欧美69| 国产精品传媒麻豆hd| 在线观看免费一区二区| 777久久精品| 99视频一区| 91精品在线观看国产| 麻豆精品视频在线观看视频| 亚洲精品在线国产| 亚洲va在线| 欧美交a欧美精品喷水| 9999国产精品| 国产日产高清欧美一区二区三区| 国产精品v日韩精品v欧美精品网站 | 久久天堂av| 1024精品一区二区三区| 亚洲一区区二区| 热久久久久久| 午夜久久av| 欧美日韩精品一本二本三本 | 国产亚洲字幕| 蜜桃av在线播放| 国产极品久久久久久久久波多结野| 综合精品一区| 中文字幕日韩欧美精品高清在线| 日韩高清国产一区在线| 国产一区二区三区四区| 国精品一区二区| 久久精品 人人爱| 热三久草你在线| 亚洲福利国产| 亚洲无线一线二线三线区别av| 亚洲黄页一区| 久久国内精品视频| 欧美日韩一区二区国产| 国产一区 二区| 蜜臀av性久久久久蜜臀aⅴ流畅| 国产精品久久国产愉拍| 午夜久久av| 欧美日韩国产免费观看视频| 日韩大片在线观看| 日韩a一区二区| 日本成人在线视频网站| 久久国产三级| 日韩在线短视频| 亚洲欧洲国产精品一区| 黄毛片在线观看| 鲁大师精品99久久久| 欧美日韩亚洲一区在线观看| 亚洲精品日本| 美女久久精品| 亚洲国产成人二区| 男人天堂欧美日韩| 日本少妇一区二区| 欧美视频二区| 日本欧美国产| 亚洲激情国产| 老司机免费视频一区二区三区| 国产精品网站在线看| 国产一区二区三区四区| 国产劲爆久久| 一区二区电影在线观看| 亚洲综合精品| 日本大胆欧美人术艺术动态| 伊人网在线播放| 日韩激情中文字幕| 蜜桃国内精品久久久久软件9| 国产美女撒尿一区二区| 噜噜噜久久亚洲精品国产品小说| 麻豆精品少妇| 亚洲精品伊人| 精品久久不卡| 日韩黄色在线观看| 中文av在线全新| 蜜臀久久99精品久久久画质超高清| 国产精品试看| se01亚洲视频| 国精品产品一区| 亚洲免费毛片| 久久精品国内一区二区三区| av中文字幕在线观看第一页| 蜜臀91精品一区二区三区| 久久久天天操| 给我免费播放日韩视频| 日本一不卡视频| 久久国产福利| 99精品美女| 超级白嫩亚洲国产第一| 美女免费视频一区| 国产精品入口久久| 欧美视频久久| 欧美日韩亚洲一区在线观看| 日韩国产成人精品| 亚洲精品麻豆| 91成人精品观看| 青青草国产成人99久久| 91嫩草精品| 亚洲小说欧美另类婷婷| 久久久国产精品入口麻豆| 一区二区国产在线| 亚洲免费一区二区| 亚洲精品极品| 欧美日韩va| 婷婷激情一区| 国产亚洲精品美女久久| 一区二区三区国产在线| 视频一区视频二区中文| 午夜精品免费| 国产精品7m凸凹视频分类| 国产在线|日韩| 久久精品五月| 精品午夜av| 99久久亚洲精品蜜臀| 亚洲女同中文字幕| 亚洲精品97| 男人天堂欧美日韩| 国产 日韩 欧美 综合 一区| 99精品视频精品精品视频| 亚洲成人精选| 欧美亚洲一区二区三区| 国产精品18| 国产综合视频| 91嫩草精品| 亚洲精选91| 欧美日韩视频网站| 亚洲一区黄色| 日韩精品亚洲专区| 久久国产66| 久久精品在线| 国产精品88久久久久久| 日韩视频二区| 视频一区日韩精品| 国产欧美一区二区三区精品观看 | 日韩精品亚洲专区在线观看| 国产高清一区二区| 精精国产xxxx视频在线播放| 不卡中文字幕| 国际精品欧美精品| 久久av在线| yellow在线观看网址| 日韩1区2区3区| 精品成av人一区二区三区| 999在线观看精品免费不卡网站| 日本不卡视频一二三区| 伊人久久亚洲影院| 国产suv精品一区二区四区视频| 免费久久99精品国产| 国产传媒在线| 高清一区二区三区| 国产精品男女| 日本va欧美va欧美va精品| 午夜亚洲福利在线老司机| 日韩精品永久网址| 麻豆精品av| 国际精品欧美精品| 97精品中文字幕| 日韩深夜视频| 国产 日韩 欧美一区| 成人在线视频免费看| 久色成人在线| 欧美成人一二区| 91亚洲无吗| 国产黄大片在线观看| 国产综合激情| 青青国产精品| 韩国精品主播一区二区在线观看| 国产偷自视频区视频一区二区| 亚洲另类av| 日韩.com| 亚洲精品系列| 色天使综合视频| 久久午夜精品一区二区| 亚洲激情另类| 噜噜噜久久亚洲精品国产品小说| 日韩午夜电影| 中文久久精品| 中文字幕日韩亚洲| 国产精品日韩精品在线播放| 国产精品2023| 亚洲1234区| 国产精品婷婷| 日本欧美一区| 国产精品黑丝在线播放| 麻豆成全视频免费观看在线看|