mysql中like模糊查询优化
时间:2019-05-14 17:46 来源:linux.it.net.cn 作者:IT
这是我在一个百万级数据库遇到的问题
比如这个语句在这个数据库查询很慢:
select a from news where b like ‘%haha%’ order by time limit 100;
第一种优化方法(注意:这种方法只适用于haha开头的):
//将haha字段和time字段加索引(联合索引还是普通索引自己看情况)
select a from news where b like ‘haha%’ order by time limit 100;
第二种优化方法(注意:这种方法只适用于mysql引擎是myisam的):
//语句不变,将haha字段加为全文索引,time字段变为普通索引
select a from news where b like ‘%haha%’ order by time limit 100;
第三种方法:
这是因为我必须用 %haha% 这种方式,而且还不能更换数据库引擎的情况下。
我是把like的操作放到了java程序中来处理,一次取定量数据进行筛选,如果没取够,再取,再筛选……这样就避免了完全扫表了,只扫部分数据。成功解决。
PS: 如果要select很多字段,其中又有超大类型的字段,比如 longtext,尽量先查询其他字段,然后根据id或者其他唯一字段来查询这个longtext字段。因为大字段影响效率。
(责任编辑:IT)
这是我在一个百万级数据库遇到的问题 比如这个语句在这个数据库查询很慢: select a from news where b like ‘%haha%’ order by time limit 100; 第一种优化方法(注意:这种方法只适用于haha开头的): //将haha字段和time字段加索引(联合索引还是普通索引自己看情况) select a from news where b like ‘haha%’ order by time limit 100; 第二种优化方法(注意:这种方法只适用于mysql引擎是myisam的): //语句不变,将haha字段加为全文索引,time字段变为普通索引 select a from news where b like ‘%haha%’ order by time limit 100; 第三种方法: 这是因为我必须用 %haha% 这种方式,而且还不能更换数据库引擎的情况下。 我是把like的操作放到了java程序中来处理,一次取定量数据进行筛选,如果没取够,再取,再筛选……这样就避免了完全扫表了,只扫部分数据。成功解决。 PS: 如果要select很多字段,其中又有超大类型的字段,比如 longtext,尽量先查询其他字段,然后根据id或者其他唯一字段来查询这个longtext字段。因为大字段影响效率。 (责任编辑:IT) |