这是我在一个百万级数据库遇到的问题 比如这个语句在这个数据库查询很慢: select a from news where b like ‘%haha%’ order by time limit 100; 第一种优化方法(注意:这种方法只适用于haha开头的): //将haha字段和time字段加索引(联合索引还是普通索引自己看情况) select a from news where b like ‘haha%’ order by time limit 100; 第二种优化方法(注意:这种方法只适用于mysql引擎是myisam的): //语句不变,将haha字段加为全文索引,time字段变为普通索引 select a from news where b like ‘%haha%’ order by time limit 100; 第三种方法: 这是因为我必须用 %haha% 这种方式,而且还不能更换数据库引擎的情况下。 我是把like的操作放到了java程序中来处理,一次取定量数据进行筛选,如果没取够,再取,再筛选……这样就避免了完全扫表了,只扫部分数据。成功解决。 PS: 如果要select很多字段,其中又有超大类型的字段,比如 longtext,尽量先查询其他字段,然后根据id或者其他唯一字段来查询这个longtext字段。因为大字段影响效率。 (责任编辑:IT) |