~drizzle-trunk/drizzle/development

« back to all changes in this revision

Viewing changes to drizzled/opt_range.cc

  • Committer: Monty Taylor
  • Date: 2009-01-06 18:46:25 UTC
  • mto: This revision was merged to the branch mainline in revision 762.
  • Revision ID: mordred@inaugust.com-20090106184625-kqu7nsnwjwm5jv4s
Enabled dirty_close.

Show diffs side-by-side

added added

removed removed

Lines of Context:
25
25
/*
26
26
  This file contains:
27
27
 
28
 
  RangeAnalysisModule  
29
 
    A module that accepts a condition, index (or partitioning) description, 
30
 
    and builds lists of intervals (in index/partitioning space), such that 
31
 
    all possible records that match the condition are contained within the 
 
28
  RangeAnalysisModule
 
29
    A module that accepts a condition, index (or partitioning) description,
 
30
    and builds lists of intervals (in index/partitioning space), such that
 
31
    all possible records that match the condition are contained within the
32
32
    intervals.
33
33
    The entry point for the range analysis module is get_mm_tree() function.
34
 
    
 
34
 
35
35
    The lists are returned in form of complicated structure of interlinked
36
36
    SEL_TREE/SEL_IMERGE/SEL_ARG objects.
37
 
    See quick_range_seq_next, find_used_partitions for examples of how to walk 
 
37
    See quick_range_seq_next, find_used_partitions for examples of how to walk
38
38
    this structure.
39
39
    All direct "users" of this module are located within this file, too.
40
40
 
46
46
    The module has single entry point - prune_partitions() function.
47
47
 
48
48
 
49
 
  Range/index_merge/groupby-minmax optimizer module  
50
 
    A module that accepts a table, condition, and returns 
 
49
  Range/index_merge/groupby-minmax optimizer module
 
50
    A module that accepts a table, condition, and returns
51
51
     - a QUICK_*_SELECT object that can be used to retrieve rows that match
52
 
       the specified condition, or a "no records will match the condition" 
 
52
       the specified condition, or a "no records will match the condition"
53
53
       statement.
54
54
 
55
55
    The module entry points are
64
64
  ~~~~~~~~~~~~~~
65
65
  The code in this file (and elsewhere) makes operations on key value tuples.
66
66
  Those tuples are stored in the following format:
67
 
  
 
67
 
68
68
  The tuple is a sequence of key part values. The length of key part value
69
69
  depends only on its type (and not depends on the what value is stored)
70
 
  
 
70
 
71
71
    KeyTuple: keypart1-data, keypart2-data, ...
72
 
  
 
72
 
73
73
  The value of each keypart is stored in the following format:
74
 
  
 
74
 
75
75
    keypart_data: [isnull_byte] keypart-value-bytes
76
76
 
77
77
  If a keypart may have a NULL value (key_part->field->real_maybe_null() can
78
 
  be used to check this), then the first byte is a NULL indicator with the 
 
78
  be used to check this), then the first byte is a NULL indicator with the
79
79
  following valid values:
80
80
    1  - keypart has NULL value.
81
81
    0  - keypart has non-NULL value.
86
86
 
87
87
  keypart-value-bytes holds the value. Its format depends on the field type.
88
88
  The length of keypart-value-bytes may or may not depend on the value being
89
 
  stored. The default is that length is static and equal to 
 
89
  stored. The default is that length is static and equal to
90
90
  KEY_PART_INFO::length.
91
 
  
92
 
  Key parts with (key_part_flag & HA_BLOB_PART) have length depending of the 
 
91
 
 
92
  Key parts with (key_part_flag & HA_BLOB_PART) have length depending of the
93
93
  value:
94
 
  
 
94
 
95
95
     keypart-value-bytes: value_length value_bytes
96
96
 
97
97
  The value_length part itself occupies HA_KEY_BLOB_LENGTH=2 bytes.
99
99
  See key_copy() and key_restore() for code to move data between index tuple
100
100
  and table record
101
101
 
102
 
  CAUTION: the above description is only sergefp's understanding of the 
 
102
  CAUTION: the above description is only sergefp's understanding of the
103
103
           subject and may omit some details.
104
104
*/
105
105
 
109
109
#include <drizzled/cost_vect.h>
110
110
#include <drizzled/item/cmpfunc.h>
111
111
#include <drizzled/field/num.h>
 
112
#include <drizzled/check_stack_overrun.h>
112
113
 
 
114
#include <string>
113
115
#include CMATH_H
114
116
 
 
117
using namespace std;
115
118
#if defined(CMATH_NAMESPACE)
116
119
using namespace CMATH_NAMESPACE;
117
120
#endif
129
132
class RANGE_OPT_PARAM;
130
133
/*
131
134
  A construction block of the SEL_ARG-graph.
132
 
  
133
 
  The following description only covers graphs of SEL_ARG objects with 
 
135
 
 
136
  The following description only covers graphs of SEL_ARG objects with
134
137
  sel_arg->type==KEY_RANGE:
135
138
 
136
139
  One SEL_ARG object represents an "elementary interval" in form
137
 
  
 
140
 
138
141
      min_value <=?  table.keypartX  <=? max_value
139
 
  
 
142
 
140
143
  The interval is a non-empty interval of any kind: with[out] minimum/maximum
141
144
  bound, [half]open/closed, single-point interval, etc.
142
145
 
143
146
  1. SEL_ARG GRAPH STRUCTURE
144
 
  
 
147
 
145
148
  SEL_ARG objects are linked together in a graph. The meaning of the graph
146
149
  is better demostrated by an example:
147
 
  
 
150
 
148
151
     tree->keys[i]
149
 
      | 
 
152
      |
150
153
      |             $              $
151
154
      |    part=1   $     part=2   $    part=3
152
155
      |             $              $
155
158
      |  +-------+  $   +-------+  $   +--------+
156
159
      |      |      $              $       |
157
160
      |      |      $              $   +--------+
158
 
      |      |      $              $   | kp3=12 | 
159
 
      |      |      $              $   +--------+ 
160
 
      |  +-------+  $              $   
161
 
      \->| kp1=2 |--$--------------$-+ 
 
161
      |      |      $              $   | kp3=12 |
 
162
      |      |      $              $   +--------+
 
163
      |  +-------+  $              $
 
164
      \->| kp1=2 |--$--------------$-+
162
165
         +-------+  $              $ |   +--------+
163
166
             |      $              $  ==>| kp3=11 |
164
167
         +-------+  $              $ |   +--------+
166
169
         +-------+  $              $     +--------+
167
170
             |      $              $     | kp3=14 |
168
171
            ...     $              $     +--------+
169
 
 
 
172
 
170
173
  The entire graph is partitioned into "interval lists".
171
174
 
172
175
  An interval list is a sequence of ordered disjoint intervals over the same
173
176
  key part. SEL_ARG are linked via "next" and "prev" pointers. Additionally,
174
 
  all intervals in the list form an RB-tree, linked via left/right/parent 
 
177
  all intervals in the list form an RB-tree, linked via left/right/parent
175
178
  pointers. The RB-tree root SEL_ARG object will be further called "root of the
176
179
  interval list".
177
 
  
178
 
    In the example pic, there are 4 interval lists: 
 
180
 
 
181
    In the example pic, there are 4 interval lists:
179
182
    "kp<1 OR kp1=2 OR kp1=3", "kp2=5", "kp3=10 OR kp3=12", "kp3=11 OR kp3=13".
180
183
    The vertical lines represent SEL_ARG::next/prev pointers.
181
 
    
 
184
 
182
185
  In an interval list, each member X may have SEL_ARG::next_key_part pointer
183
186
  pointing to the root of another interval list Y. The pointed interval list
184
187
  must cover a key part with greater number (i.e. Y->part > X->part).
185
 
    
 
188
 
186
189
    In the example pic, the next_key_part pointers are represented by
187
190
    horisontal lines.
188
191
 
190
193
 
191
194
  It represents a condition in a special form (we don't have a name for it ATM)
192
195
  The SEL_ARG::next/prev is "OR", and next_key_part is "AND".
193
 
  
 
196
 
194
197
  For example, the picture represents the condition in form:
195
 
   (kp1 < 1 AND kp2=5 AND (kp3=10 OR kp3=12)) OR 
196
 
   (kp1=2 AND (kp3=11 OR kp3=14)) OR 
 
198
   (kp1 < 1 AND kp2=5 AND (kp3=10 OR kp3=12)) OR
 
199
   (kp1=2 AND (kp3=11 OR kp3=14)) OR
197
200
   (kp1=3 AND (kp3=11 OR kp3=14))
198
201
 
199
202
 
202
205
  Use get_mm_tree() to construct SEL_ARG graph from WHERE condition.
203
206
  Then walk the SEL_ARG graph and get a list of dijsoint ordered key
204
207
  intervals (i.e. intervals in form
205
 
  
 
208
 
206
209
   (constA1, .., const1_K) < (keypart1,.., keypartK) < (constB1, .., constB_K)
207
210
 
208
211
  Those intervals can be used to access the index. The uses are in:
213
216
                            and create QUICK_RANGE_SELECT object that will
214
217
                            read records within these intervals.
215
218
 
216
 
  4. SPACE COMPLEXITY NOTES 
 
219
  4. SPACE COMPLEXITY NOTES
217
220
 
218
221
    SEL_ARG graph is a representation of an ordered disjoint sequence of
219
222
    intervals over the ordered set of index tuple values.
220
223
 
221
224
    For multi-part keys, one can construct a WHERE expression such that its
222
225
    list of intervals will be of combinatorial size. Here is an example:
223
 
     
224
 
      (keypart1 IN (1,2, ..., n1)) AND 
225
 
      (keypart2 IN (1,2, ..., n2)) AND 
 
226
 
 
227
      (keypart1 IN (1,2, ..., n1)) AND
 
228
      (keypart2 IN (1,2, ..., n2)) AND
226
229
      (keypart3 IN (1,2, ..., n3))
227
 
    
 
230
 
228
231
    For this WHERE clause the list of intervals will have n1*n2*n3 intervals
229
232
    of form
230
 
     
 
233
 
231
234
      (keypart1, keypart2, keypart3) = (k1, k2, k3), where 1 <= k{i} <= n{i}
232
 
    
 
235
 
233
236
    SEL_ARG graph structure aims to reduce the amount of required space by
234
237
    "sharing" the elementary intervals when possible (the pic at the
235
 
    beginning of this comment has examples of such sharing). The sharing may 
 
238
    beginning of this comment has examples of such sharing). The sharing may
236
239
    prevent combinatorial blowup:
237
240
 
238
241
      There are WHERE clauses that have combinatorial-size interval lists but
239
242
      will be represented by a compact SEL_ARG graph.
240
243
      Example:
241
 
        (keypartN IN (1,2, ..., n1)) AND 
 
244
        (keypartN IN (1,2, ..., n1)) AND
242
245
        ...
243
 
        (keypart2 IN (1,2, ..., n2)) AND 
 
246
        (keypart2 IN (1,2, ..., n2)) AND
244
247
        (keypart1 IN (1,2, ..., n3))
245
248
 
246
249
    but not in all cases:
249
252
      representation but get_mm_tree() and its callees will construct a
250
253
      graph of combinatorial size.
251
254
      Example:
252
 
        (keypart1 IN (1,2, ..., n1)) AND 
253
 
        (keypart2 IN (1,2, ..., n2)) AND 
 
255
        (keypart1 IN (1,2, ..., n1)) AND
 
256
        (keypart2 IN (1,2, ..., n2)) AND
254
257
        ...
255
258
        (keypartN IN (1,2, ..., n3))
256
259
 
260
263
        By induction: Let's take any interval on some keypart in the middle:
261
264
 
262
265
           kp15=c0
263
 
        
 
266
 
264
267
        Then let's AND it with this interval 'structure' from preceding and
265
268
        following keyparts:
266
269
 
267
270
          (kp14=c1 AND kp16=c3) OR keypart14=c2) (*)
268
 
        
 
271
 
269
272
        We will obtain this SEL_ARG graph:
270
 
 
 
273
 
271
274
             kp14     $      kp15      $      kp16
272
275
                      $                $
273
276
         +---------+  $   +---------+  $   +---------+
274
277
         | kp14=c1 |--$-->| kp15=c0 |--$-->| kp16=c3 |
275
278
         +---------+  $   +---------+  $   +---------+
276
 
              |       $                $              
277
 
         +---------+  $   +---------+  $             
278
 
         | kp14=c2 |--$-->| kp15=c0 |  $             
279
 
         +---------+  $   +---------+  $             
 
279
              |       $                $
 
280
         +---------+  $   +---------+  $
 
281
         | kp14=c2 |--$-->| kp15=c0 |  $
 
282
         +---------+  $   +---------+  $
280
283
                      $                $
281
 
                      
 
284
 
282
285
       Note that we had to duplicate "kp15=c0" and there was no way to avoid
283
 
       that. 
 
286
       that.
284
287
       The induction step: AND the obtained expression with another "wrapping"
285
288
       expression like (*).
286
 
       When the process ends because of the limit on max. number of keyparts 
 
289
       When the process ends because of the limit on max. number of keyparts
287
290
       we'll have:
288
291
 
289
292
         WHERE clause length  is O(3*#max_keyparts)
303
306
  uint8_t min_flag,max_flag,maybe_flag;
304
307
  uint8_t part;                                 // Which key part
305
308
  uint8_t maybe_null;
306
 
  /* 
 
309
  /*
307
310
    Number of children of this element in the RB-tree, plus 1 for this
308
311
    element itself.
309
312
  */
324
327
  SEL_ARG *left,*right;   /* R-B tree children */
325
328
  SEL_ARG *next,*prev;    /* Links for bi-directional interval list */
326
329
  SEL_ARG *parent;        /* R-B tree parent */
327
 
  SEL_ARG *next_key_part; 
 
330
  SEL_ARG *next_key_part;
328
331
  enum leaf_color { BLACK,RED } color;
329
332
  enum Type { IMPOSSIBLE, MAYBE, MAYBE_KEY, KEY_RANGE } type;
330
333
 
350
353
  inline void merge_flags(SEL_ARG *arg) { maybe_flag|=arg->maybe_flag; }
351
354
  inline void maybe_smaller() { maybe_flag=1; }
352
355
  /* Return true iff it's a single-point null interval */
353
 
  inline bool is_null_interval() { return maybe_null && max_value[0] == 1; } 
 
356
  inline bool is_null_interval() { return maybe_null && max_value[0] == 1; }
354
357
  inline int cmp_min_to_min(SEL_ARG* arg)
355
358
  {
356
359
    return sel_cmp(field,min_value, arg->min_value, min_flag, arg->min_flag);
487
490
    uint32_t res= key_tree->store_min(key[key_tree->part].store_length,
488
491
                                  range_key, *range_key_flag);
489
492
    *range_key_flag|= key_tree->min_flag;
490
 
    
 
493
 
491
494
    if (key_tree->next_key_part &&
492
495
        key_tree->next_key_part->part == key_tree->part+1 &&
493
496
        !(*range_key_flag & (NO_MIN_RANGE | NEAR_MIN)) &&
561
564
 
562
565
    SYNOPSIS
563
566
      is_singlepoint()
564
 
    
 
567
 
565
568
    DESCRIPTION
566
569
      Check if this SEL_ARG object (not tree) represents a single-point
567
 
      interval, i.e. if it represents a "keypart = const" or 
 
570
      interval, i.e. if it represents a "keypart = const" or
568
571
      "keypart IS NULL".
569
572
 
570
573
    RETURN
574
577
 
575
578
  bool is_singlepoint()
576
579
  {
577
 
    /* 
578
 
      Check for NEAR_MIN ("strictly less") and NO_MIN_RANGE (-inf < field) 
 
580
    /*
 
581
      Check for NEAR_MIN ("strictly less") and NO_MIN_RANGE (-inf < field)
579
582
      flags, and the same for right edge.
580
583
    */
581
584
    if (min_flag || max_flag)
607
610
public:
608
611
  /*
609
612
    Starting an effort to document this field:
610
 
    (for some i, keys[i]->type == SEL_ARG::IMPOSSIBLE) => 
 
613
    (for some i, keys[i]->type == SEL_ARG::IMPOSSIBLE) =>
611
614
       (type == SEL_TREE::IMPOSSIBLE)
612
615
  */
613
616
  enum Type { IMPOSSIBLE, ALWAYS, MAYBE, KEY, KEY_SMALLER } type;
661
664
    #keys elements are not empty)
662
665
  */
663
666
  uint32_t keys;
664
 
  
665
 
  /* 
 
667
 
 
668
  /*
666
669
    If true, the index descriptions describe real indexes (and it is ok to
667
670
    call field->optimize_range(real_keynr[...], ...).
668
671
    Otherwise index description describes fake indexes.
669
672
  */
670
673
  bool using_real_indexes;
671
 
  
 
674
 
672
675
  bool remove_jump_scans;
673
 
  
 
676
 
674
677
  /*
675
678
    used_key_no -> table_key_no translation table. Only makes sense if
676
679
    using_real_indexes==true
677
680
  */
678
681
  uint32_t real_keynr[MAX_KEY];
679
682
  /* Number of SEL_ARG objects allocated by SEL_ARG::clone_tree operations */
680
 
  uint32_t alloced_sel_args; 
 
683
  uint32_t alloced_sel_args;
681
684
  bool force_default_mrr;
682
685
};
683
686
 
727
730
 
728
731
static bool is_key_scan_ror(PARAM *param, uint32_t keynr, uint8_t nparts);
729
732
static ha_rows check_quick_select(PARAM *param, uint32_t idx, bool index_only,
730
 
                                  SEL_ARG *tree, bool update_tbl_stats, 
 
733
                                  SEL_ARG *tree, bool update_tbl_stats,
731
734
                                  uint32_t *mrr_flags, uint32_t *bufsize,
732
735
                                  COST_VECT *cost);
733
736
                                  //bool update_tbl_stats);
737
740
*/
738
741
 
739
742
QUICK_RANGE_SELECT *get_quick_select(PARAM *param,uint32_t index,
740
 
                                     SEL_ARG *key_tree, uint32_t mrr_flags, 
 
743
                                     SEL_ARG *key_tree, uint32_t mrr_flags,
741
744
                                     uint32_t mrr_buf_size, MEM_ROOT *alloc);
742
745
static TRP_RANGE *get_key_scans_params(PARAM *param, SEL_TREE *tree,
743
746
                                       bool index_read_must_be_used,
1014
1017
  *error=0;
1015
1018
 
1016
1019
  if (!conds && !allow_null_cond)
1017
 
    return(0);
 
1020
    return 0;
1018
1021
  if (!(select= new SQL_SELECT))
1019
1022
  {
1020
1023
    *error= 1;                  // out of memory
1021
 
    return(0);          /* purecov: inspected */
 
1024
    return 0;           /* purecov: inspected */
1022
1025
  }
1023
1026
  select->read_tables=read_tables;
1024
1027
  select->const_tables=const_tables;
1117
1120
  save_write_set= head->write_set;
1118
1121
 
1119
1122
  /* Allocate a bitmap for used columns (Q: why not on MEM_ROOT?) */
1120
 
  if (!(bitmap= (my_bitmap_map*) my_malloc(head->s->column_bitmap_size,
1121
 
                                           MYF(MY_WME))))
 
1123
  if (!(bitmap= (my_bitmap_map*) malloc(head->s->column_bitmap_size)))
1122
1124
  {
1123
1125
    column_bitmap.bitmap= 0;
1124
1126
    *create_error= 1;
1149
1151
  if (!dont_free)
1150
1152
  {
1151
1153
    /* file is NULL for CPK scan on covering ROR-intersection */
1152
 
    if (file) 
 
1154
    if (file)
1153
1155
    {
1154
1156
      range_end();
1155
1157
      if (head->key_read)
1188
1190
 
1189
1191
int QUICK_INDEX_MERGE_SELECT::init()
1190
1192
{
1191
 
  return(0);
 
1193
  return 0;
1192
1194
}
1193
1195
 
1194
1196
int QUICK_INDEX_MERGE_SELECT::reset()
1293
1295
  {
1294
1296
    if (init() || reset())
1295
1297
    {
1296
 
      return(1);
 
1298
      return 0;
1297
1299
    }
1298
1300
    head->column_bitmaps_set(&column_bitmap, &column_bitmap);
1299
1301
    goto end;
1303
1305
  if (free_file)
1304
1306
  {
1305
1307
    /* already have own 'handler' object. */
1306
 
    return(0);
 
1308
    return 0;
1307
1309
  }
1308
1310
 
1309
1311
  session= head->in_use;
1310
1312
  if (!(file= head->file->clone(session->mem_root)))
1311
1313
  {
1312
 
    /* 
 
1314
    /*
1313
1315
      Manually set the error flag. Note: there seems to be quite a few
1314
1316
      places where a failure could cause the server to "hang" the client by
1315
 
      sending no response to a query. ATM those are not real errors because 
1316
 
      the storage engine calls in question happen to never fail with the 
1317
 
      existing storage engines. 
 
1317
      sending no response to a query. ATM those are not real errors because
 
1318
      the storage engine calls in question happen to never fail with the
 
1319
      existing storage engines.
1318
1320
    */
1319
1321
    my_error(ER_OUT_OF_RESOURCES, MYF(0)); /* purecov: inspected */
1320
1322
    /* Caller will free the memory */
1355
1357
  bitmap_copy(&column_bitmap, head->read_set);
1356
1358
  head->column_bitmaps_set(&column_bitmap, &column_bitmap);
1357
1359
 
1358
 
  return(0);
 
1360
  return 0;
1359
1361
 
1360
1362
failure:
1361
1363
  head->column_bitmaps_set(save_read_set, save_write_set);
1362
1364
  delete file;
1363
1365
  file= save_file;
1364
 
  return(1);
 
1366
  return 0;
1365
1367
}
1366
1368
 
1367
1369
 
1396
1398
      selects.
1397
1399
    */
1398
1400
    if (quick->init_ror_merged_scan(true))
1399
 
      return(1);
 
1401
      return 0;
1400
1402
    quick->file->extra(HA_EXTRA_KEYREAD_PRESERVE_FIELDS);
1401
1403
  }
1402
1404
  while ((quick= quick_it++))
1403
1405
  {
1404
1406
    if (quick->init_ror_merged_scan(false))
1405
 
      return(1);
 
1407
      return 0;
1406
1408
    quick->file->extra(HA_EXTRA_KEYREAD_PRESERVE_FIELDS);
1407
1409
    /* All merged scans share the same record buffer in intersection. */
1408
1410
    quick->record= head->record[0];
1410
1412
 
1411
1413
  if (need_to_fetch_row && head->file->ha_rnd_init(1))
1412
1414
  {
1413
 
    return(1);
 
1415
    return 0;
1414
1416
  }
1415
 
  return(0);
 
1417
  return 0;
1416
1418
}
1417
1419
 
1418
1420
 
1428
1430
int QUICK_ROR_INTERSECT_SELECT::reset()
1429
1431
{
1430
1432
  if (!scans_inited && init_ror_merged_scan(true))
1431
 
    return(1);
 
1433
    return 0;
1432
1434
  scans_inited= true;
1433
1435
  List_iterator_fast<QUICK_RANGE_SELECT> it(quick_selects);
1434
1436
  QUICK_RANGE_SELECT *quick;
1435
1437
  while ((quick= it++))
1436
1438
    quick->reset();
1437
 
  return(0);
 
1439
  return 0;
1438
1440
}
1439
1441
 
1440
1442
 
1500
1502
                 (void*) this))
1501
1503
  {
1502
1504
    memset(&queue, 0, sizeof(QUEUE));
1503
 
    return(1);
 
1505
    return 0;
1504
1506
  }
1505
1507
 
1506
1508
  if (!(cur_rowid= (unsigned char*) alloc_root(&alloc, 2*head->file->ref_length)))
1507
 
    return(1);
 
1509
    return 0;
1508
1510
  prev_rowid= cur_rowid + head->file->ref_length;
1509
 
  return(0);
 
1511
  return 0;
1510
1512
}
1511
1513
 
1512
1514
 
1550
1552
    while ((quick= it++))
1551
1553
    {
1552
1554
      if (quick->init_ror_merged_scan(false))
1553
 
        return(1);
 
1555
        return 0;
1554
1556
    }
1555
1557
    scans_inited= true;
1556
1558
  }
1563
1565
  while ((quick= it++))
1564
1566
  {
1565
1567
    if (quick->reset())
1566
 
      return(1);
 
1568
      return 0;
1567
1569
    if ((error= quick->get_next()))
1568
1570
    {
1569
1571
      if (error == HA_ERR_END_OF_FILE)
1576
1578
 
1577
1579
  if (head->file->ha_rnd_init(1))
1578
1580
  {
1579
 
    return(1);
 
1581
    return 0;
1580
1582
  }
1581
1583
 
1582
 
  return(0);
 
1584
  return 0;
1583
1585
}
1584
1586
 
1585
1587
 
1651
1653
  left=right= &null_element;
1652
1654
}
1653
1655
 
1654
 
SEL_ARG *SEL_ARG::clone(RANGE_OPT_PARAM *param, SEL_ARG *new_parent, 
 
1656
SEL_ARG *SEL_ARG::clone(RANGE_OPT_PARAM *param, SEL_ARG *new_parent,
1655
1657
                        SEL_ARG **next_arg)
1656
1658
{
1657
1659
  SEL_ARG *tmp;
1787
1789
      limit  Number of records that will be retrieved
1788
1790
 
1789
1791
  DESCRIPTION
1790
 
    Find the best index that allows to retrieve first #limit records in the 
 
1792
    Find the best index that allows to retrieve first #limit records in the
1791
1793
    given order cheaper then one would retrieve them using full table scan.
1792
1794
 
1793
1795
  IMPLEMENTATION
1811
1813
  uint32_t idx;
1812
1814
  uint32_t match_key= MAX_KEY, match_key_len= MAX_KEY_LENGTH + 1;
1813
1815
  order_st *ord;
1814
 
  
 
1816
 
1815
1817
  for (ord= order; ord; ord= ord->next)
1816
1818
    if (!ord->asc)
1817
1819
      return MAX_KEY;
1823
1825
    KEY_PART_INFO *keyinfo= table->key_info[idx].key_part;
1824
1826
    uint32_t n_parts=  table->key_info[idx].key_parts;
1825
1827
    uint32_t partno= 0;
1826
 
    
1827
 
    /* 
1828
 
      The below check is sufficient considering we now have either BTREE 
1829
 
      indexes (records are returned in order for any index prefix) or HASH 
 
1828
 
 
1829
    /*
 
1830
      The below check is sufficient considering we now have either BTREE
 
1831
      indexes (records are returned in order for any index prefix) or HASH
1830
1832
      indexes (records are not returned in order for any index prefix).
1831
1833
    */
1832
1834
    if (!(table->file->index_flags(idx, 0, 1) & HA_READ_ORDER))
1838
1840
           ((Item_field*)item)->field->eq(keyinfo[partno].field)))
1839
1841
        break;
1840
1842
    }
1841
 
    
 
1843
 
1842
1844
    if (!ord && table->key_info[idx].key_length < match_key_len)
1843
1845
    {
1844
 
      /* 
 
1846
      /*
1845
1847
        Ok, the ordering is compatible and this key is shorter then
1846
1848
        previous match (we want shorter keys as we'll have to read fewer
1847
1849
        index pages for the same number of records)
1853
1855
 
1854
1856
  if (match_key != MAX_KEY)
1855
1857
  {
1856
 
    /* 
1857
 
      Found an index that allows records to be retrieved in the requested 
 
1858
    /*
 
1859
      Found an index that allows records to be retrieved in the requested
1858
1860
      order. Now we'll check if using the index is cheaper then doing a table
1859
1861
      scan.
1860
1862
    */
1910
1912
  /* Table read plans are allocated on MEM_ROOT and are never deleted */
1911
1913
  static void *operator new(size_t size, MEM_ROOT *mem_root)
1912
1914
  { return (void*) alloc_root(mem_root, (uint) size); }
1913
 
  static void operator delete(void *ptr __attribute__((unused)),
1914
 
                              size_t size __attribute__((unused)))
 
1915
  static void operator delete(void *, size_t)
1915
1916
    { TRASH(ptr, size); }
1916
 
  static void operator delete(void *ptr __attribute__((unused)),
1917
 
                              MEM_ROOT *mem_root __attribute__((unused)))
 
1917
  static void operator delete(void *, MEM_ROOT *)
1918
1918
    { /* Never called */ }
1919
1919
  virtual ~TABLE_READ_PLAN() {}               /* Remove gcc warning */
1920
1920
 
1937
1937
public:
1938
1938
  SEL_ARG *key; /* set of intervals to be used in "range" method retrieval */
1939
1939
  uint32_t     key_idx; /* key number in PARAM::key */
1940
 
  uint32_t     mrr_flags; 
 
1940
  uint32_t     mrr_flags;
1941
1941
  uint32_t     mrr_buf_size;
1942
1942
 
1943
1943
  TRP_RANGE(SEL_ARG *key_arg, uint32_t idx_arg, uint32_t mrr_flags_arg)
1945
1945
  {}
1946
1946
  virtual ~TRP_RANGE() {}                     /* Remove gcc warning */
1947
1947
 
1948
 
  QUICK_SELECT_I *make_quick(PARAM *param,
1949
 
                             bool retrieve_full_rows __attribute__((unused)),
1950
 
                             MEM_ROOT *parent_alloc)
 
1948
  QUICK_SELECT_I *make_quick(PARAM *param, bool, MEM_ROOT *parent_alloc)
1951
1949
  {
1952
1950
    QUICK_RANGE_SELECT *quick;
1953
1951
    if ((quick= get_quick_select(param, key_idx, key, mrr_flags, mrr_buf_size,
1956
1954
      quick->records= records;
1957
1955
      quick->read_time= read_cost;
1958
1956
    }
1959
 
    return(quick);
 
1957
    return quick;
1960
1958
  }
1961
1959
};
1962
1960
 
2017
2015
 
2018
2016
 
2019
2017
/*
2020
 
  Plan for a QUICK_GROUP_MIN_MAX_SELECT scan. 
 
2018
  Plan for a QUICK_GROUP_MIN_MAX_SELECT scan.
2021
2019
*/
2022
2020
 
2023
2021
class TRP_GROUP_MIN_MAX : public TABLE_READ_PLAN
2133
2131
 
2134
2132
  IMPLEMENTATION
2135
2133
    quick_condition_rows value is obtained as follows:
2136
 
      
 
2134
 
2137
2135
      It is a minimum of E(#output rows) for all considered table access
2138
2136
      methods (range and index_merge accesses over various indexes).
2139
 
    
 
2137
 
2140
2138
    The obtained value is not a true E(#rows that satisfy table condition)
2141
2139
    but rather a pessimistic estimate. To obtain a true E(#...) one would
2142
2140
    need to combine estimates of various access methods, taking into account
2143
2141
    correlations between sets of rows they will return.
2144
 
    
 
2142
 
2145
2143
    For example, if values of tbl.key1 and tbl.key2 are independent (a right
2146
2144
    assumption if we have no information about their correlation) then the
2147
2145
    correct estimate will be:
2148
 
    
2149
 
      E(#rows("tbl.key1 < c1 AND tbl.key2 < c2")) = 
 
2146
 
 
2147
      E(#rows("tbl.key1 < c1 AND tbl.key2 < c2")) =
2150
2148
      = E(#rows(tbl.key1 < c1)) / total_rows(tbl) * E(#rows(tbl.key2 < c2)
2151
2149
 
2152
 
    which is smaller than 
2153
 
      
 
2150
    which is smaller than
 
2151
 
2154
2152
       MIN(E(#rows(tbl.key1 < c1), E(#rows(tbl.key2 < c2)))
2155
2153
 
2156
2154
    which is currently produced.
2157
2155
 
2158
2156
  TODO
2159
2157
   * Change the value returned in quick_condition_rows from a pessimistic
2160
 
     estimate to true E(#rows that satisfy table condition). 
2161
 
     (we can re-use some of E(#rows) calcuation code from index_merge/intersection 
 
2158
     estimate to true E(#rows that satisfy table condition).
 
2159
     (we can re-use some of E(#rows) calcuation code from index_merge/intersection
2162
2160
      for this)
2163
 
   
 
2161
 
2164
2162
   * Check if this function really needs to modify keys_to_use, and change the
2165
2163
     code to pass it by reference if it doesn't.
2166
2164
 
2176
2174
 
2177
2175
int SQL_SELECT::test_quick_select(Session *session, key_map keys_to_use,
2178
2176
                                  table_map prev_tables,
2179
 
                                  ha_rows limit, bool force_quick_range, 
 
2177
                                  ha_rows limit, bool force_quick_range,
2180
2178
                                  bool ordered_output)
2181
2179
{
2182
2180
  uint32_t idx;
2186
2184
  needed_reg.clear_all();
2187
2185
  quick_keys.clear_all();
2188
2186
  if (keys_to_use.is_clear_all())
2189
 
    return(0);
 
2187
    return 0;
2190
2188
  records= head->file->stats.records;
2191
2189
  if (!records)
2192
2190
    records++;                                  /* purecov: inspected */
2197
2195
  if (limit < records)
2198
2196
    read_time= (double) records + scan_time + 1; // Force to use index
2199
2197
  else if (read_time <= 2.0 && !force_quick_range)
2200
 
    return(0);                          /* No need for quick select */
 
2198
    return 0;                           /* No need for quick select */
2201
2199
 
2202
2200
  keys_to_use.intersect(head->keys_in_use_for_query);
2203
2201
  if (!keys_to_use.is_clear_all())
2209
2207
    PARAM param;
2210
2208
 
2211
2209
    if (check_stack_overrun(session, 2*STACK_MIN_SIZE, NULL))
2212
 
      return(0);                           // Fatal error flag is set
 
2210
      return 0;                           // Fatal error flag is set
2213
2211
 
2214
2212
    /* set up parameter that is passed to all functions */
2215
2213
    param.session= session;
2236
2234
    {
2237
2235
      session->no_errors=0;
2238
2236
      free_root(&alloc,MYF(0));                 // Return memory & allocator
2239
 
      return(0);                                // Can't use range
 
2237
      return 0;                         // Can't use range
2240
2238
    }
2241
2239
    key_parts= param.key_parts;
2242
2240
    session->mem_root= &alloc;
2276
2274
    if (!head->covering_keys.is_clear_all())
2277
2275
    {
2278
2276
      int key_for_use= head->find_shortest_key(&head->covering_keys);
2279
 
      double key_read_time= 
2280
 
        param.table->file->index_only_read_time(key_for_use, 
 
2277
      double key_read_time=
 
2278
        param.table->file->index_only_read_time(key_for_use,
2281
2279
                                                rows2double(records)) +
2282
2280
        (double) records / TIME_FOR_COMPARE;
2283
2281
      if (key_read_time < read_time)
2380
2378
        {
2381
2379
          new_conj_trp= get_best_disjunct_quick(&param, imerge, best_read_time);
2382
2380
          if (new_conj_trp)
2383
 
            set_if_smaller(param.table->quick_condition_rows, 
 
2381
            set_if_smaller(param.table->quick_condition_rows,
2384
2382
                           new_conj_trp->records);
2385
2383
          if (!best_conj_trp || (new_conj_trp && new_conj_trp->read_cost <
2386
2384
                                 best_conj_trp->read_cost))
2509
2507
  if (!(range_scans= (TRP_RANGE**)alloc_root(param->mem_root,
2510
2508
                                             sizeof(TRP_RANGE*)*
2511
2509
                                             n_child_scans)))
2512
 
    return(NULL);
 
2510
    return NULL;
2513
2511
  /*
2514
2512
    Collect best 'range' scan for each of disjuncts, and, while doing so,
2515
2513
    analyze possibility of ROR scans. Also calculate some values needed by
2554
2552
      Bail out if it is obvious that both index_merge and ROR-union will be
2555
2553
      more expensive
2556
2554
    */
2557
 
    return(NULL);
 
2555
    return NULL;
2558
2556
  }
2559
2557
  if (all_scans_rors)
2560
2558
  {
2591
2589
  {
2592
2590
    if (!(param->imerge_cost_buff= (uint*)alloc_root(param->mem_root,
2593
2591
                                                     unique_calc_buff_size)))
2594
 
      return(NULL);
 
2592
      return NULL;
2595
2593
    param->imerge_cost_buff_size= unique_calc_buff_size;
2596
2594
  }
2597
2595
 
2763
2761
 
2764
2762
  if (!(ror_scan= (ROR_SCAN_INFO*)alloc_root(param->mem_root,
2765
2763
                                             sizeof(ROR_SCAN_INFO))))
2766
 
    return(NULL);
 
2764
    return NULL;
2767
2765
 
2768
2766
  ror_scan->idx= idx;
2769
2767
  ror_scan->keynr= keynr= param->real_keynr[idx];
2774
2772
 
2775
2773
  if (!(bitmap_buf= (my_bitmap_map*) alloc_root(param->mem_root,
2776
2774
                                                param->fields_bitmap_size)))
2777
 
    return(NULL);
 
2775
    return NULL;
2778
2776
 
2779
2777
  if (bitmap_init(&ror_scan->covered_fields, bitmap_buf,
2780
2778
                  param->table->s->fields, false))
2781
 
    return(NULL);
 
2779
    return NULL;
2782
2780
  bitmap_clear_all(&ror_scan->covered_fields);
2783
2781
 
2784
2782
  KEY_PART_INFO *key_part= param->table->key_info[keynr].key_part;
2909
2907
void ror_intersect_cpy(ROR_INTERSECT_INFO *dst, const ROR_INTERSECT_INFO *src)
2910
2908
{
2911
2909
  dst->param= src->param;
2912
 
  memcpy(dst->covered_fields.bitmap, src->covered_fields.bitmap, 
 
2910
  memcpy(dst->covered_fields.bitmap, src->covered_fields.bitmap,
2913
2911
         no_bytes_in_map(&src->covered_fields));
2914
2912
  dst->out_rows= src->out_rows;
2915
2913
  dst->is_covering= src->is_covering;
2924
2922
 
2925
2923
  SYNOPSIS
2926
2924
    ror_scan_selectivity()
2927
 
      info  ROR-interection 
 
2925
      info  ROR-interection
2928
2926
      scan  ROR scan
2929
 
      
 
2927
 
2930
2928
  NOTES
2931
2929
    Suppose we have a condition on several keys
2932
2930
    cond=k_11=c_11 AND k_12=c_12 AND ...  // parts of first key
3009
3007
    Selectivity of given ROR scan.
3010
3008
*/
3011
3009
 
3012
 
static double ror_scan_selectivity(const ROR_INTERSECT_INFO *info, 
 
3010
static double ror_scan_selectivity(const ROR_INTERSECT_INFO *info,
3013
3011
                                   const ROR_SCAN_INFO *scan)
3014
3012
{
3015
3013
  double selectivity_mult= 1.0;
3111
3109
 
3112
3110
    E(rows_to_retrieve) = #rows_in_table * ror_scan_selectivity(null, scan1) *
3113
3111
                           ror_scan_selectivity({scan1}, scan2) * ... *
3114
 
                           ror_scan_selectivity({scan1,...}, scanN). 
 
3112
                           ror_scan_selectivity({scan1,...}, scanN).
3115
3113
  RETURN
3116
3114
    true   ROR scan added to ROR-intersection, cost updated.
3117
3115
    false  It doesn't make sense to add this ROR scan to this ROR-intersection.
3126
3124
  if (selectivity_mult == 1.0)
3127
3125
  {
3128
3126
    /* Don't add this scan if it doesn't improve selectivity. */
3129
 
    return(false);
 
3127
    return false;
3130
3128
  }
3131
 
  
 
3129
 
3132
3130
  info->out_rows *= selectivity_mult;
3133
 
  
 
3131
 
3134
3132
  if (is_cpk_scan)
3135
3133
  {
3136
3134
    /*
3137
 
      CPK scan is used to filter out rows. We apply filtering for 
 
3135
      CPK scan is used to filter out rows. We apply filtering for
3138
3136
      each record of every scan. Assuming 1/TIME_FOR_COMPARE_ROWID
3139
3137
      per check this gives us:
3140
3138
    */
3141
 
    info->index_scan_costs += rows2double(info->index_records) / 
 
3139
    info->index_scan_costs += rows2double(info->index_records) /
3142
3140
                              TIME_FOR_COMPARE_ROWID;
3143
3141
  }
3144
3142
  else
3163
3161
                        is_interrupted, &sweep_cost);
3164
3162
    info->total_cost += sweep_cost.total_cost();
3165
3163
  }
3166
 
  return(true);
 
3164
  return true;
3167
3165
}
3168
3166
 
3169
3167
 
3183
3181
 
3184
3182
  NOTES
3185
3183
    get_key_scans_params must be called before this function can be called.
3186
 
    
 
3184
 
3187
3185
    When this function is called by ROR-union construction algorithm it
3188
3186
    assumes it is building an uncovered ROR-intersection (and thus # of full
3189
3187
    records to be retrieved is wrong here). This is a hack.
3205
3203
        firstR= R - first(R);
3206
3204
        if (!selectivity(S + firstR < selectivity(S)))
3207
3205
          continue;
3208
 
          
 
3206
 
3209
3207
        S= S + first(R);
3210
3208
        if (cost(S) < min_cost)
3211
3209
        {
3240
3238
  double min_cost= DBL_MAX;
3241
3239
 
3242
3240
  if ((tree->n_ror_scans < 2) || !param->table->file->stats.records)
3243
 
    return(NULL);
 
3241
    return NULL;
3244
3242
 
3245
3243
  /*
3246
 
    Step1: Collect ROR-able SEL_ARGs and create ROR_SCAN_INFO for each of 
 
3244
    Step1: Collect ROR-able SEL_ARGs and create ROR_SCAN_INFO for each of
3247
3245
    them. Also find and save clustered PK scan if there is one.
3248
3246
  */
3249
3247
  ROR_SCAN_INFO **cur_ror_scan;
3299
3297
 
3300
3298
  /* Create and incrementally update ROR intersection. */
3301
3299
  ROR_INTERSECT_INFO *intersect, *intersect_best;
3302
 
  if (!(intersect= ror_intersect_init(param)) || 
 
3300
  if (!(intersect= ror_intersect_init(param)) ||
3303
3301
      !(intersect_best= ror_intersect_init(param)))
3304
3302
    return NULL;
3305
3303
 
3315
3313
      cur_ror_scan++;
3316
3314
      continue;
3317
3315
    }
3318
 
    
 
3316
 
3319
3317
    *(intersect_scans_end++)= *(cur_ror_scan++);
3320
3318
 
3321
3319
    if (intersect->total_cost < min_cost)
3329
3327
 
3330
3328
  if (intersect_scans_best == intersect_scans)
3331
3329
  {
3332
 
    return(NULL);
 
3330
    return NULL;
3333
3331
  }
3334
 
    
 
3332
 
3335
3333
  print_ror_scans_arr(param->table,
3336
3334
                                          "best ROR-intersection",
3337
3335
                                          intersect_scans,
3343
3341
 
3344
3342
  /*
3345
3343
    Ok, found the best ROR-intersection of non-CPK key scans.
3346
 
    Check if we should add a CPK scan. If the obtained ROR-intersection is 
 
3344
    Check if we should add a CPK scan. If the obtained ROR-intersection is
3347
3345
    covering, it doesn't make sense to add CPK scan.
3348
3346
  */
3349
3347
  if (cpk_scan && !intersect->is_covering)
3350
3348
  {
3351
 
    if (ror_intersect_add(intersect, cpk_scan, true) && 
 
3349
    if (ror_intersect_add(intersect, cpk_scan, true) &&
3352
3350
        (intersect->total_cost < min_cost))
3353
3351
    {
3354
3352
      cpk_scan_used= true;
3365
3363
    if (!(trp->first_scan=
3366
3364
           (ROR_SCAN_INFO**)alloc_root(param->mem_root,
3367
3365
                                       sizeof(ROR_SCAN_INFO*)*best_num)))
3368
 
      return(NULL);
 
3366
      return NULL;
3369
3367
    memcpy(trp->first_scan, intersect_scans, best_num*sizeof(ROR_SCAN_INFO*));
3370
3368
    trp->last_scan=  trp->first_scan + best_num;
3371
3369
    trp->is_covering= intersect_best->is_covering;
3437
3435
  ror_scan_mark= tree->ror_scans;
3438
3436
 
3439
3437
  MY_BITMAP *covered_fields= &param->tmp_covered_fields;
3440
 
  if (!covered_fields->bitmap) 
 
3438
  if (!covered_fields->bitmap)
3441
3439
    covered_fields->bitmap= (my_bitmap_map*)alloc_root(param->mem_root,
3442
3440
                                               param->fields_bitmap_size);
3443
3441
  if (!covered_fields->bitmap ||
3444
3442
      bitmap_init(covered_fields, covered_fields->bitmap,
3445
3443
                  param->table->s->fields, false))
3446
 
    return(0);
 
3444
    return 0;
3447
3445
  bitmap_clear_all(covered_fields);
3448
3446
 
3449
3447
  double total_cost= 0.0f;
3481
3479
    total_cost += (*ror_scan_mark)->index_read_cost;
3482
3480
    records += (*ror_scan_mark)->records;
3483
3481
    if (total_cost > read_time)
3484
 
      return(NULL);
 
3482
      return NULL;
3485
3483
    /* F=F-covered by first(I) */
3486
3484
    bitmap_union(covered_fields, &(*ror_scan_mark)->covered_fields);
3487
3485
    all_covered= bitmap_is_subset(&param->needed_fields, covered_fields);
3488
3486
  } while ((++ror_scan_mark < ror_scans_end) && !all_covered);
3489
 
  
 
3487
 
3490
3488
  if (!all_covered || (ror_scan_mark - tree->ror_scans) == 1)
3491
 
    return(NULL);
 
3489
    return NULL;
3492
3490
 
3493
3491
  /*
3494
3492
    Ok, [tree->ror_scans .. ror_scan) holds covering index_intersection with
3504
3502
                (TIME_FOR_COMPARE_ROWID * M_LN2);
3505
3503
 
3506
3504
  if (total_cost > read_time)
3507
 
    return(NULL);
 
3505
    return NULL;
3508
3506
 
3509
3507
  TRP_ROR_INTERSECT *trp;
3510
3508
  if (!(trp= new (param->mem_root) TRP_ROR_INTERSECT))
3513
3511
  if (!(trp->first_scan= (ROR_SCAN_INFO**)alloc_root(param->mem_root,
3514
3512
                                                     sizeof(ROR_SCAN_INFO*)*
3515
3513
                                                     best_num)))
3516
 
    return(NULL);
 
3514
    return NULL;
3517
3515
  memcpy(trp->first_scan, tree->ror_scans, best_num*sizeof(ROR_SCAN_INFO*));
3518
3516
  trp->last_scan=  trp->first_scan + best_num;
3519
3517
  trp->is_covering= true;
3520
3518
  trp->read_cost= total_cost;
3521
3519
  trp->records= records;
3522
3520
  trp->cpk_scan= NULL;
3523
 
  set_if_smaller(param->table->quick_condition_rows, records); 
 
3521
  set_if_smaller(param->table->quick_condition_rows, records);
3524
3522
 
3525
3523
  return(trp);
3526
3524
}
3537
3535
                               (except for clustered PK indexes)
3538
3536
      update_tbl_stats         true <=> update table->quick_* with information
3539
3537
                               about range scans we've evaluated.
3540
 
      read_time                Maximum cost. i.e. don't create read plans with 
 
3538
      read_time                Maximum cost. i.e. don't create read plans with
3541
3539
                               cost > read_time.
3542
3540
 
3543
3541
  DESCRIPTION
3544
 
    Find the best "range" table read plan for given SEL_TREE. 
3545
 
    The side effects are 
 
3542
    Find the best "range" table read plan for given SEL_TREE.
 
3543
    The side effects are
3546
3544
     - tree->ror_scans is updated to indicate which scans are ROR scans.
3547
3545
     - if update_tbl_stats=true then table->quick_* is updated with info
3548
3546
       about every possible range scan.
3553
3551
*/
3554
3552
 
3555
3553
static TRP_RANGE *get_key_scans_params(PARAM *param, SEL_TREE *tree,
3556
 
                                       bool index_read_must_be_used, 
 
3554
                                       bool index_read_must_be_used,
3557
3555
                                       bool update_tbl_stats,
3558
3556
                                       double read_time)
3559
3557
{
3583
3581
          (*key)->maybe_flag)
3584
3582
        param->needed_reg->set_bit(keynr);
3585
3583
 
3586
 
      bool read_index_only= index_read_must_be_used || 
 
3584
      bool read_index_only= index_read_must_be_used ||
3587
3585
                            param->table->covering_keys.is_set(keynr);
3588
3586
 
3589
3587
      found_records= check_quick_select(param, idx, read_index_only, *key,
3624
3622
}
3625
3623
 
3626
3624
 
3627
 
QUICK_SELECT_I *TRP_INDEX_MERGE::make_quick(PARAM *param,
3628
 
                                            bool retrieve_full_rows __attribute__((unused)),
3629
 
                                            MEM_ROOT *parent_alloc __attribute__((unused)))
 
3625
QUICK_SELECT_I *TRP_INDEX_MERGE::make_quick(PARAM *param, bool, MEM_ROOT *)
3630
3626
{
3631
3627
  QUICK_INDEX_MERGE_SELECT *quick_imerge;
3632
3628
  QUICK_RANGE_SELECT *quick;
3678
3674
          quick_intrsect->push_quick_back(quick))
3679
3675
      {
3680
3676
        delete quick_intrsect;
3681
 
        return(NULL);
 
3677
        return NULL;
3682
3678
      }
3683
3679
    }
3684
3680
    if (cpk_scan)
3689
3685
                                    0, alloc)))
3690
3686
      {
3691
3687
        delete quick_intrsect;
3692
 
        return(NULL);
 
3688
        return NULL;
3693
3689
      }
3694
 
      quick->file= NULL; 
 
3690
      quick->file= NULL;
3695
3691
      quick_intrsect->cpk_quick= quick;
3696
3692
    }
3697
3693
    quick_intrsect->records= records;
3701
3697
}
3702
3698
 
3703
3699
 
3704
 
QUICK_SELECT_I *TRP_ROR_UNION::make_quick(PARAM *param,
3705
 
                                          bool retrieve_full_rows __attribute__((unused)),
3706
 
                                          MEM_ROOT *parent_alloc __attribute__((unused)))
 
3700
QUICK_SELECT_I *TRP_ROR_UNION::make_quick(PARAM *param, bool, MEM_ROOT *)
3707
3701
{
3708
3702
  QUICK_ROR_UNION_SELECT *quick_roru;
3709
3703
  TABLE_READ_PLAN **scan;
3718
3712
    {
3719
3713
      if (!(quick= (*scan)->make_quick(param, false, &quick_roru->alloc)) ||
3720
3714
          quick_roru->push_quick_back(quick))
3721
 
        return(NULL);
 
3715
        return NULL;
3722
3716
    }
3723
3717
    quick_roru->records= records;
3724
3718
    quick_roru->read_time= read_cost;
3729
3723
 
3730
3724
/*
3731
3725
  Build a SEL_TREE for <> or NOT BETWEEN predicate
3732
 
 
 
3726
 
3733
3727
  SYNOPSIS
3734
3728
    get_ne_mm_tree()
3735
3729
      param       PARAM from SQL_SELECT::test_quick_select
3739
3733
      gt_value    constant that field should be greaterr
3740
3734
      cmp_type    compare type for the field
3741
3735
 
3742
 
  RETURN 
 
3736
  RETURN
3743
3737
    #  Pointer to tree built tree
3744
3738
    0  on error
3745
3739
*/
3746
3740
 
3747
 
static SEL_TREE *get_ne_mm_tree(RANGE_OPT_PARAM *param, Item_func *cond_func, 
 
3741
static SEL_TREE *get_ne_mm_tree(RANGE_OPT_PARAM *param, Item_func *cond_func,
3748
3742
                                Field *field,
3749
3743
                                Item *lt_value, Item *gt_value,
3750
3744
                                Item_result cmp_type)
3760
3754
  }
3761
3755
  return tree;
3762
3756
}
3763
 
   
 
3757
 
3764
3758
 
3765
3759
/*
3766
3760
  Build a SEL_TREE for a simple predicate
3767
 
 
 
3761
 
3768
3762
  SYNOPSIS
3769
3763
    get_func_mm_tree()
3770
3764
      param       PARAM from SQL_SELECT::test_quick_select
3773
3767
      value       constant in the predicate
3774
3768
      cmp_type    compare type for the field
3775
3769
      inv         true <> NOT cond_func is considered
3776
 
                  (makes sense only when cond_func is BETWEEN or IN) 
 
3770
                  (makes sense only when cond_func is BETWEEN or IN)
3777
3771
 
3778
 
  RETURN 
 
3772
  RETURN
3779
3773
    Pointer to the tree built tree
3780
3774
*/
3781
3775
 
3782
 
static SEL_TREE *get_func_mm_tree(RANGE_OPT_PARAM *param, Item_func *cond_func, 
 
3776
static SEL_TREE *get_func_mm_tree(RANGE_OPT_PARAM *param, Item_func *cond_func,
3783
3777
                                  Field *field, Item *value,
3784
3778
                                  Item_result cmp_type, bool inv)
3785
3779
{
3833
3827
      so we check it here to avoid unnecessary work.
3834
3828
    */
3835
3829
    if (!func->arg_types_compatible)
3836
 
      break;     
 
3830
      break;
3837
3831
 
3838
3832
    if (inv)
3839
3833
    {
3841
3835
      {
3842
3836
        /*
3843
3837
          We get here for conditions in form "t.key NOT IN (c1, c2, ...)",
3844
 
          where c{i} are constants. Our goal is to produce a SEL_TREE that 
 
3838
          where c{i} are constants. Our goal is to produce a SEL_TREE that
3845
3839
          represents intervals:
3846
 
          
 
3840
 
3847
3841
          ($MIN<t.key<c1) OR (c1<t.key<c2) OR (c2<t.key<c3) OR ...    (*)
3848
 
          
 
3842
 
3849
3843
          where $MIN is either "-inf" or NULL.
3850
 
          
 
3844
 
3851
3845
          The most straightforward way to produce it is to convert NOT IN
3852
3846
          into "(t.key != c1) AND (t.key != c2) AND ... " and let the range
3853
3847
          analyzer to build SEL_TREE from that. The problem is that the
3857
3851
 
3858
3852
          Another problem with big lists like (*) is that a big list is
3859
3853
          unlikely to produce a good "range" access, while considering that
3860
 
          range access will require expensive CPU calculations (and for 
 
3854
          range access will require expensive CPU calculations (and for
3861
3855
          MyISAM even index accesses). In short, big NOT IN lists are rarely
3862
3856
          worth analyzing.
3863
3857
 
3869
3863
#define NOT_IN_IGNORE_THRESHOLD 1000
3870
3864
        MEM_ROOT *tmp_root= param->mem_root;
3871
3865
        param->session->mem_root= param->old_root;
3872
 
        /* 
 
3866
        /*
3873
3867
          Create one Item_type constant object. We'll need it as
3874
3868
          get_mm_parts only accepts constant values wrapped in Item_Type
3875
3869
          objects.
3885
3879
 
3886
3880
        /* Get a SEL_TREE for "(-inf|NULL) < X < c_0" interval.  */
3887
3881
        uint32_t i=0;
3888
 
        do 
 
3882
        do
3889
3883
        {
3890
3884
          func->array->value_to_item(i, value_item);
3891
3885
          tree= get_mm_parts(param, cond_func, field, Item_func::LT_FUNC,
3928
3922
                new_interval->min_flag= NEAR_MIN;
3929
3923
              }
3930
3924
            }
3931
 
            /* 
 
3925
            /*
3932
3926
              The following doesn't try to allocate memory so no need to
3933
3927
              check for NULL.
3934
3928
            */
3935
3929
            tree= tree_or(param, tree, tree2);
3936
3930
          }
3937
3931
        }
3938
 
        
 
3932
 
3939
3933
        if (tree && tree->type != SEL_TREE::IMPOSSIBLE)
3940
3934
        {
3941
 
          /* 
3942
 
            Get the SEL_TREE for the last "c_last < X < +inf" interval 
 
3935
          /*
 
3936
            Get the SEL_TREE for the last "c_last < X < +inf" interval
3943
3937
            (value_item cotains c_last already)
3944
3938
          */
3945
3939
          tree2= get_mm_parts(param, cond_func, field, Item_func::GT_FUNC,
3958
3952
          for (arg= func->arguments()+2, end= arg+func->argument_count()-2;
3959
3953
               arg < end ; arg++)
3960
3954
          {
3961
 
            tree=  tree_and(param, tree, get_ne_mm_tree(param, cond_func, field, 
 
3955
            tree=  tree_and(param, tree, get_ne_mm_tree(param, cond_func, field,
3962
3956
                                                        *arg, *arg, cmp_type));
3963
3957
          }
3964
3958
        }
3965
3959
      }
3966
3960
    }
3967
3961
    else
3968
 
    {    
 
3962
    {
3969
3963
      tree= get_mm_parts(param, cond_func, field, Item_func::EQ_FUNC,
3970
3964
                         func->arguments()[1], cmp_type);
3971
3965
      if (tree)
3974
3968
        for (arg= func->arguments()+2, end= arg+func->argument_count()-2;
3975
3969
             arg < end ; arg++)
3976
3970
        {
3977
 
          tree= tree_or(param, tree, get_mm_parts(param, cond_func, field, 
 
3971
          tree= tree_or(param, tree, get_mm_parts(param, cond_func, field,
3978
3972
                                                  Item_func::EQ_FUNC,
3979
3973
                                                  *arg, cmp_type));
3980
3974
        }
3982
3976
    }
3983
3977
    break;
3984
3978
  }
3985
 
  default: 
 
3979
  default:
3986
3980
  {
3987
 
    /* 
 
3981
    /*
3988
3982
       Here the function for the following predicates are processed:
3989
3983
       <, <=, =, >=, >, LIKE, IS NULL, IS NOT NULL.
3990
3984
       If the predicate is of the form (value op field) it is handled
4004
3998
 
4005
3999
/*
4006
4000
  Build conjunction of all SEL_TREEs for a simple predicate applying equalities
4007
 
 
 
4001
 
4008
4002
  SYNOPSIS
4009
4003
    get_full_func_mm_tree()
4010
4004
      param       PARAM from SQL_SELECT::test_quick_select
4012
4006
      field_item  field in the predicate
4013
4007
      value       constant in the predicate
4014
4008
                  (for BETWEEN it contains the number of the field argument,
4015
 
                   for IN it's always 0) 
 
4009
                   for IN it's always 0)
4016
4010
      inv         true <> NOT cond_func is considered
4017
4011
                  (makes sense only when cond_func is BETWEEN or IN)
4018
4012
 
4021
4015
    c is a constant, the function builds a conjunction of all SEL_TREES that can
4022
4016
    be obtained by the substitution of f for all different fields equal to f.
4023
4017
 
4024
 
  NOTES  
 
4018
  NOTES
4025
4019
    If the WHERE condition contains a predicate (fi op c),
4026
4020
    then not only SELL_TREE for this predicate is built, but
4027
4021
    the trees for the results of substitution of fi for
4028
4022
    each fj belonging to the same multiple equality as fi
4029
4023
    are built as well.
4030
 
    E.g. for WHERE t1.a=t2.a AND t2.a > 10 
 
4024
    E.g. for WHERE t1.a=t2.a AND t2.a > 10
4031
4025
    a SEL_TREE for t2.a > 10 will be built for quick select from t2
4032
 
    and   
 
4026
    and
4033
4027
    a SEL_TREE for t1.a > 10 will be built for quick select from t1.
4034
4028
 
4035
4029
    A BETWEEN predicate of the form (fi [NOT] BETWEEN c1 AND c2) is treated
4038
4032
    Yet a predicate of the form (c BETWEEN f1i AND f2i) is processed
4039
4033
    differently. It is considered as a conjuction of two SARGable
4040
4034
    predicates (f1i <= c) and (f2i <=c) and the function get_full_func_mm_tree
4041
 
    is called for each of them separately producing trees for 
4042
 
       AND j (f1j <=c ) and AND j (f2j <= c) 
 
4035
    is called for each of them separately producing trees for
 
4036
       AND j (f1j <=c ) and AND j (f2j <= c)
4043
4037
    After this these two trees are united in one conjunctive tree.
4044
4038
    It's easy to see that the same tree is obtained for
4045
4039
       AND j,k (f1j <=c AND f2k<=c)
4046
 
    which is equivalent to 
 
4040
    which is equivalent to
4047
4041
       AND j,k (c BETWEEN f1j AND f2k).
4048
4042
    The validity of the processing of the predicate (c NOT BETWEEN f1i AND f2i)
4049
4043
    which equivalent to (f1i > c OR f2i < c) is not so obvious. Here the
4050
4044
    function get_full_func_mm_tree is called for (f1i > c) and (f2i < c)
4051
4045
    producing trees for AND j (f1j > c) and AND j (f2j < c). Then this two
4052
 
    trees are united in one OR-tree. The expression 
 
4046
    trees are united in one OR-tree. The expression
4053
4047
      (AND j (f1j > c) OR AND j (f2j < c)
4054
4048
    is equivalent to the expression
4055
 
      AND j,k (f1j > c OR f2k < c) 
4056
 
    which is just a translation of 
 
4049
      AND j,k (f1j > c OR f2k < c)
 
4050
    which is just a translation of
4057
4051
      AND j,k (c NOT BETWEEN f1j AND f2k)
4058
4052
 
4059
4053
    In the cases when one of the items f1, f2 is a constant c1 we do not create
4066
4060
    As to IN predicates only ones of the form (f IN (c1,...,cn)),
4067
4061
    where f1 is a field and c1,...,cn are constant, are considered as
4068
4062
    SARGable. We never try to narrow the index scan using predicates of
4069
 
    the form (c IN (c1,...,f,...,cn)). 
4070
 
      
4071
 
  RETURN 
 
4063
    the form (c IN (c1,...,f,...,cn)).
 
4064
 
 
4065
  RETURN
4072
4066
    Pointer to the tree representing the built conjunction of SEL_TREEs
4073
4067
*/
4074
4068
 
4075
4069
static SEL_TREE *get_full_func_mm_tree(RANGE_OPT_PARAM *param,
4076
4070
                                       Item_func *cond_func,
4077
 
                                       Item_field *field_item, Item *value, 
 
4071
                                       Item_field *field_item, Item *value,
4078
4072
                                       bool inv)
4079
4073
{
4080
4074
  SEL_TREE *tree= 0;
4134
4128
      while ((item=li++))
4135
4129
      {
4136
4130
        SEL_TREE *new_tree=get_mm_tree(param,item);
4137
 
        if (param->session->is_fatal_error || 
 
4131
        if (param->session->is_fatal_error ||
4138
4132
            param->alloced_sel_args > SEL_ARG::MAX_SEL_ARGS)
4139
 
          return(0);    // out of memory
 
4133
          return 0;     // out of memory
4140
4134
        tree=tree_and(param,tree,new_tree);
4141
4135
        if (tree && tree->type == SEL_TREE::IMPOSSIBLE)
4142
4136
          break;
4152
4146
        {
4153
4147
          SEL_TREE *new_tree=get_mm_tree(param,item);
4154
4148
          if (!new_tree)
4155
 
            return(0);  // out of memory
 
4149
            return 0;   // out of memory
4156
4150
          tree=tree_or(param,tree,new_tree);
4157
4151
          if (!tree || tree->type == SEL_TREE::ALWAYS)
4158
4152
            break;
4165
4159
  if (cond->const_item())
4166
4160
  {
4167
4161
    /*
4168
 
      During the cond->val_int() evaluation we can come across a subselect 
4169
 
      item which may allocate memory on the session->mem_root and assumes 
4170
 
      all the memory allocated has the same life span as the subselect 
 
4162
      During the cond->val_int() evaluation we can come across a subselect
 
4163
      item which may allocate memory on the session->mem_root and assumes
 
4164
      all the memory allocated has the same life span as the subselect
4171
4165
      item itself. So we have to restore the thread's mem_root here.
4172
4166
    */
4173
4167
    MEM_ROOT *tmp_root= param->mem_root;
4186
4180
    ref_tables= cond->used_tables();
4187
4181
    if ((ref_tables & param->current_table) ||
4188
4182
        (ref_tables & ~(param->prev_tables | param->read_tables)))
4189
 
      return(0);
 
4183
      return 0;
4190
4184
    return(new SEL_TREE(SEL_TREE::MAYBE));
4191
4185
  }
4192
4186
 
4195
4189
      cond_func->functype() == Item_func::IN_FUNC)
4196
4190
    inv= ((Item_func_opt_neg *) cond_func)->negated;
4197
4191
  else if (cond_func->select_optimize() == Item_func::OPTIMIZE_NONE)
4198
 
    return(0);                         
 
4192
    return 0;
4199
4193
 
4200
4194
  param->cond= cond;
4201
4195
 
4216
4210
      if (cond_func->arguments()[i]->real_item()->type() == Item::FIELD_ITEM)
4217
4211
      {
4218
4212
        field_item= (Item_field*) (cond_func->arguments()[i]->real_item());
4219
 
        SEL_TREE *tmp= get_full_func_mm_tree(param, cond_func, 
 
4213
        SEL_TREE *tmp= get_full_func_mm_tree(param, cond_func,
4220
4214
                                    field_item, (Item*)(intptr_t)i, inv);
4221
4215
        if (inv)
4222
4216
          tree= !tree ? tmp : tree_or(param, tree, tmp);
4223
 
        else 
 
4217
        else
4224
4218
          tree= tree_and(param, tree, tmp);
4225
4219
      }
4226
4220
      else if (inv)
4227
 
      { 
 
4221
      {
4228
4222
        tree= 0;
4229
4223
        break;
4230
4224
      }
4236
4230
  {
4237
4231
    Item_func_in *func=(Item_func_in*) cond_func;
4238
4232
    if (func->key_item()->real_item()->type() != Item::FIELD_ITEM)
4239
 
      return(0);
 
4233
      return 0;
4240
4234
    field_item= (Item_field*) (func->key_item()->real_item());
4241
4235
    ftree= get_full_func_mm_tree(param, cond_func, field_item, NULL, inv);
4242
4236
    break;
4243
4237
  }
4244
4238
  case Item_func::MULT_EQUAL_FUNC:
4245
4239
  {
4246
 
    Item_equal *item_equal= (Item_equal *) cond;    
 
4240
    Item_equal *item_equal= (Item_equal *) cond;
4247
4241
    if (!(value= item_equal->get_const()))
4248
 
      return(0);
 
4242
      return 0;
4249
4243
    Item_equal_iterator it(*item_equal);
4250
4244
    ref_tables= value->used_tables();
4251
4245
    while ((field_item= it++))
4259
4253
        ftree= !ftree ? tree : tree_and(param, ftree, tree);
4260
4254
      }
4261
4255
    }
4262
 
    
 
4256
 
4263
4257
    return(ftree);
4264
4258
  }
4265
4259
  default:
4276
4270
      value= cond_func->arguments()[0];
4277
4271
    }
4278
4272
    else
4279
 
      return(0);
 
4273
      return 0;
4280
4274
    ftree= get_full_func_mm_tree(param, cond_func, field_item, value, inv);
4281
4275
  }
4282
4276
 
4287
4281
static SEL_TREE *
4288
4282
get_mm_parts(RANGE_OPT_PARAM *param, COND *cond_func, Field *field,
4289
4283
             Item_func::Functype type,
4290
 
             Item *value,
4291
 
             Item_result cmp_type __attribute__((unused)))
 
4284
             Item *value, Item_result)
4292
4285
{
4293
4286
  if (field->table != param->table)
4294
 
    return(0);
 
4287
    return 0;
4295
4288
 
4296
4289
  KEY_PART *key_part = param->key_parts;
4297
4290
  KEY_PART *end = param->key_parts_end;
4298
4291
  SEL_TREE *tree=0;
4299
4292
  if (value &&
4300
4293
      value->used_tables() & ~(param->prev_tables | param->read_tables))
4301
 
    return(0);
 
4294
    return 0;
4302
4295
  for (; key_part != end ; key_part++)
4303
4296
  {
4304
4297
    if (field->eq(key_part->field))
4305
4298
    {
4306
4299
      SEL_ARG *sel_arg=0;
4307
4300
      if (!tree && !(tree=new SEL_TREE()))
4308
 
        return(0);                              // OOM
 
4301
        return 0;                               // OOM
4309
4302
      if (!value || !(value->used_tables() & ~param->read_tables))
4310
4303
      {
4311
4304
        sel_arg=get_mm_leaf(param,cond_func,
4322
4315
      {
4323
4316
        // This key may be used later
4324
4317
        if (!(sel_arg= new SEL_ARG(SEL_ARG::MAYBE_KEY)))
4325
 
          return(0);                    // OOM
 
4318
          return 0;                     // OOM
4326
4319
      }
4327
4320
      sel_arg->part=(unsigned char) key_part->part;
4328
4321
      tree->keys[key_part->key]=sel_add(tree->keys[key_part->key],sel_arg);
4329
4322
      tree->keys_map.set_bit(key_part->key);
4330
4323
    }
4331
4324
  }
4332
 
  
 
4325
 
4333
4326
  return(tree);
4334
4327
}
4335
4328
 
4528
4521
            but a non-zero time part was cut off.
4529
4522
 
4530
4523
            In MySQL's SQL dialect, DATE and DATETIME are compared as datetime
4531
 
            values. Index over a DATE column uses DATE comparison. Changing 
 
4524
            values. Index over a DATE column uses DATE comparison. Changing
4532
4525
            from one comparison to the other is possible:
4533
4526
 
4534
4527
            datetime(date_col)< '2007-12-10 12:34:55' -> date_col<='2007-12-10'
4721
4714
  }
4722
4715
  key_map  result_keys;
4723
4716
  result_keys.clear_all();
4724
 
  
 
4717
 
4725
4718
  /* Join the trees key per key */
4726
4719
  SEL_ARG **key1,**key2,**end;
4727
4720
  for (key1= tree1->keys,key2= tree2->keys,end=key1+param->keys ;
4742
4735
      }
4743
4736
      result_keys.set_bit(key1 - tree1->keys);
4744
4737
#ifdef EXTRA_DEBUG
4745
 
        if (*key1 && param->alloced_sel_args < SEL_ARG::MAX_SEL_ARGS) 
 
4738
        if (*key1 && param->alloced_sel_args < SEL_ARG::MAX_SEL_ARGS)
4746
4739
          (*key1)->test_use_count(*key1);
4747
4740
#endif
4748
4741
    }
4767
4760
  using index_merge.
4768
4761
*/
4769
4762
 
4770
 
bool sel_trees_can_be_ored(SEL_TREE *tree1, SEL_TREE *tree2, 
 
4763
bool sel_trees_can_be_ored(SEL_TREE *tree1, SEL_TREE *tree2,
4771
4764
                           RANGE_OPT_PARAM* param)
4772
4765
{
4773
4766
  key_map common_keys= tree1->keys_map;
4774
4767
  common_keys.intersect(tree2->keys_map);
4775
4768
 
4776
4769
  if (common_keys.is_clear_all())
4777
 
    return(false);
 
4770
    return false;
4778
4771
 
4779
4772
  /* trees have a common key, check if they refer to same key part */
4780
4773
  SEL_ARG **key1,**key2;
4786
4779
      key2= tree2->keys + key_no;
4787
4780
      if ((*key1)->part == (*key2)->part)
4788
4781
      {
4789
 
        return(true);
 
4782
        return true;
4790
4783
      }
4791
4784
    }
4792
4785
  }
4793
 
  return(false);
 
4786
  return false;
4794
4787
}
4795
4788
 
4796
4789
 
4799
4792
  SYNOPSIS
4800
4793
    param  Range analysis parameter
4801
4794
    tree   Tree to be processed, tree->type is KEY or KEY_SMALLER
4802
 
 
 
4795
 
4803
4796
  DESCRIPTION
4804
4797
    This function walks through tree->keys[] and removes the SEL_ARG* trees
4805
4798
    that are not "maybe" trees (*) and cannot be used to construct quick range
4811
4804
    tree->part != 0. (e.g. it could represent "keypart2 < const").
4812
4805
 
4813
4806
    WHY THIS FUNCTION IS NEEDED
4814
 
    
 
4807
 
4815
4808
    Normally we allow construction of SEL_TREE objects that have SEL_ARG
4816
4809
    trees that do not allow quick range select construction. For example for
4817
4810
    " keypart1=1 AND keypart2=2 " the execution will proceed as follows:
4820
4813
                                               from this
4821
4814
    call tree_and(tree1, tree2) -- this joins SEL_ARGs into a usable SEL_ARG
4822
4815
                                   tree.
4823
 
    
 
4816
 
4824
4817
    There is an exception though: when we construct index_merge SEL_TREE,
4825
4818
    any SEL_ARG* tree that cannot be used to construct quick range select can
4826
4819
    be removed, because current range analysis code doesn't provide any way
4827
4820
    that tree could be later combined with another tree.
4828
4821
    Consider an example: we should not construct
4829
 
    st1 = SEL_TREE { 
4830
 
      merges = SEL_IMERGE { 
4831
 
                            SEL_TREE(t.key1part1 = 1), 
 
4822
    st1 = SEL_TREE {
 
4823
      merges = SEL_IMERGE {
 
4824
                            SEL_TREE(t.key1part1 = 1),
4832
4825
                            SEL_TREE(t.key2part2 = 2)   -- (*)
4833
 
                          } 
 
4826
                          }
4834
4827
                   };
4835
 
    because 
4836
 
     - (*) cannot be used to construct quick range select, 
4837
 
     - There is no execution path that would cause (*) to be converted to 
 
4828
    because
 
4829
     - (*) cannot be used to construct quick range select,
 
4830
     - There is no execution path that would cause (*) to be converted to
4838
4831
       a tree that could be used.
4839
4832
 
4840
4833
    The latter is easy to verify: first, notice that the only way to convert
4841
4834
    (*) into a usable tree is to call tree_and(something, (*)).
4842
4835
 
4843
4836
    Second look at what tree_and/tree_or function would do when passed a
4844
 
    SEL_TREE that has the structure like st1 tree has, and conlcude that 
 
4837
    SEL_TREE that has the structure like st1 tree has, and conlcude that
4845
4838
    tree_and(something, (*)) will not be called.
4846
4839
 
4847
4840
  RETURN
4873
4866
tree_or(RANGE_OPT_PARAM *param,SEL_TREE *tree1,SEL_TREE *tree2)
4874
4867
{
4875
4868
  if (!tree1 || !tree2)
4876
 
    return(0);
 
4869
    return 0;
4877
4870
  if (tree1->type == SEL_TREE::IMPOSSIBLE || tree2->type == SEL_TREE::ALWAYS)
4878
4871
    return(tree2);
4879
4872
  if (tree2->type == SEL_TREE::IMPOSSIBLE || tree1->type == SEL_TREE::ALWAYS)
4899
4892
        result=tree1;                           // Added to tree1
4900
4893
        result_keys.set_bit(key1 - tree1->keys);
4901
4894
#ifdef EXTRA_DEBUG
4902
 
        if (param->alloced_sel_args < SEL_ARG::MAX_SEL_ARGS) 
 
4895
        if (param->alloced_sel_args < SEL_ARG::MAX_SEL_ARGS)
4903
4896
          (*key1)->test_use_count(*key1);
4904
4897
#endif
4905
4898
      }
4941
4934
      /* one tree is index merge tree and another is range tree */
4942
4935
      if (tree1->merges.is_empty())
4943
4936
        std::swap(tree1, tree2);
4944
 
      
 
4937
 
4945
4938
      if (param->remove_jump_scans && remove_nonrange_trees(param, tree2))
4946
4939
         return(new SEL_TREE(SEL_TREE::ALWAYS));
4947
4940
      /* add tree2 to tree1->merges, checking if it collapses to ALWAYS */
4951
4944
        result= tree1;
4952
4945
    }
4953
4946
  }
4954
 
  return(result);
 
4947
  return result;
4955
4948
}
4956
4949
 
4957
4950
 
4958
4951
/* And key trees where key1->part < key2 -> part */
4959
4952
 
4960
4953
static SEL_ARG *
4961
 
and_all_keys(RANGE_OPT_PARAM *param, SEL_ARG *key1, SEL_ARG *key2, 
 
4954
and_all_keys(RANGE_OPT_PARAM *param, SEL_ARG *key1, SEL_ARG *key2,
4962
4955
             uint32_t clone_flag)
4963
4956
{
4964
4957
  SEL_ARG *next;
5058
5051
    }
5059
5052
    if (key1->type == SEL_ARG::MAYBE_KEY)
5060
5053
    {                                           // Both are maybe key
5061
 
      key1->next_key_part=key_and(param, key1->next_key_part, 
 
5054
      key1->next_key_part=key_and(param, key1->next_key_part,
5062
5055
                                  key2->next_key_part, clone_flag);
5063
5056
      if (key1->next_key_part &&
5064
5057
          key1->next_key_part->type == SEL_ARG::IMPOSSIBLE)
5562
5555
  }
5563
5556
 
5564
5557
  if (root == &null_element)
5565
 
    return(0);                          // Maybe root later
 
5558
    return 0;                           // Maybe root later
5566
5559
  if (remove_color == BLACK)
5567
5560
    root=rb_delete_fixup(root,nod,fix_par);
5568
5561
#ifdef EXTRA_DEBUG
5762
5755
    return 0;                                   // Found end of tree
5763
5756
  if (element->parent != parent)
5764
5757
  {
5765
 
    sql_print_error("Wrong tree: Parent doesn't point at parent");
 
5758
    errmsg_printf(ERRMSG_LVL_ERROR, "Wrong tree: Parent doesn't point at parent");
5766
5759
    return -1;
5767
5760
  }
5768
5761
  if (element->color == SEL_ARG::RED &&
5769
5762
      (element->left->color == SEL_ARG::RED ||
5770
5763
       element->right->color == SEL_ARG::RED))
5771
5764
  {
5772
 
    sql_print_error("Wrong tree: Found two red in a row");
 
5765
    errmsg_printf(ERRMSG_LVL_ERROR, "Wrong tree: Found two red in a row");
5773
5766
    return -1;
5774
5767
  }
5775
5768
  if (element->left == element->right && element->left != &null_element)
5776
5769
  {                                             // Dummy test
5777
 
    sql_print_error("Wrong tree: Found right == left");
 
5770
    errmsg_printf(ERRMSG_LVL_ERROR, "Wrong tree: Found right == left");
5778
5771
    return -1;
5779
5772
  }
5780
5773
  count_l=test_rb_tree(element->left,element);
5783
5776
  {
5784
5777
    if (count_l == count_r)
5785
5778
      return count_l+(element->color == SEL_ARG::BLACK);
5786
 
    sql_print_error("Wrong tree: Incorrect black-count: %d - %d",
 
5779
    errmsg_printf(ERRMSG_LVL_ERROR, "Wrong tree: Incorrect black-count: %d - %d",
5787
5780
            count_l,count_r);
5788
5781
  }
5789
5782
  return -1;                                    // Error, no more warnings
5792
5785
 
5793
5786
/*
5794
5787
  Count how many times SEL_ARG graph "root" refers to its part "key"
5795
 
  
 
5788
 
5796
5789
  SYNOPSIS
5797
5790
    count_key_part_usage()
5798
5791
      root  An RB-Root node in a SEL_ARG graph.
5803
5796
    root->next->n
5804
5797
 
5805
5798
    This function counts how many times the node "key" is referred (via
5806
 
    SEL_ARG::next_key_part) by 
5807
 
     - intervals of RB-tree pointed by "root", 
5808
 
     - intervals of RB-trees that are pointed by SEL_ARG::next_key_part from 
 
5799
    SEL_ARG::next_key_part) by
 
5800
     - intervals of RB-tree pointed by "root",
 
5801
     - intervals of RB-trees that are pointed by SEL_ARG::next_key_part from
5809
5802
       intervals of RB-tree pointed by "root",
5810
5803
     - and so on.
5811
 
    
5812
 
    Here is an example (horizontal links represent next_key_part pointers, 
5813
 
    vertical links - next/prev prev pointers):  
5814
 
    
 
5804
 
 
5805
    Here is an example (horizontal links represent next_key_part pointers,
 
5806
    vertical links - next/prev prev pointers):
 
5807
 
5815
5808
         +----+               $
5816
5809
         |root|-----------------+
5817
5810
         +----+               $ |
5830
5823
          ...     +---+       $    |
5831
5824
                  |   |------------+
5832
5825
                  +---+       $
5833
 
  RETURN 
 
5826
  RETURN
5834
5827
    Number of links to "key" from nodes reachable from "root".
5835
5828
*/
5836
5829
 
5870
5863
  uint32_t e_count=0;
5871
5864
  if (this == root && use_count != 1)
5872
5865
  {
5873
 
    sql_print_information("Use_count: Wrong count %lu for root",use_count);
 
5866
    errmsg_printf(ERRMSG_LVL_INFO, "Use_count: Wrong count %lu for root",use_count);
5874
5867
    return;
5875
5868
  }
5876
5869
  if (this->type != SEL_ARG::KEY_RANGE)
5883
5876
      ulong count=count_key_part_usage(root,pos->next_key_part);
5884
5877
      if (count > pos->next_key_part->use_count)
5885
5878
      {
5886
 
        sql_print_information("Use_count: Wrong count for key at 0x%lx, %lu "
 
5879
        errmsg_printf(ERRMSG_LVL_INFO, "Use_count: Wrong count for key at 0x%lx, %lu "
5887
5880
                              "should be %lu", (long unsigned int)pos,
5888
5881
                              pos->next_key_part->use_count, count);
5889
5882
        return;
5892
5885
    }
5893
5886
  }
5894
5887
  if (e_count != elements)
5895
 
    sql_print_warning("Wrong use count: %u (should be %u) for tree at 0x%lx",
 
5888
    errmsg_printf(ERRMSG_LVL_WARN, "Wrong use count: %u (should be %u) for tree at 0x%lx",
5896
5889
                      e_count, elements, (long unsigned int) this);
5897
5890
}
5898
5891
 
5903
5896
 ****************************************************************************/
5904
5897
 
5905
5898
/* MRR range sequence, SEL_ARG* implementation: stack entry */
5906
 
typedef struct st_range_seq_entry 
 
5899
typedef struct st_range_seq_entry
5907
5900
{
5908
 
  /* 
 
5901
  /*
5909
5902
    Pointers in min and max keys. They point to right-after-end of key
5910
5903
    images. The 0-th entry has these pointing to key tuple start.
5911
5904
  */
5912
5905
  unsigned char *min_key, *max_key;
5913
 
  
5914
 
  /* 
 
5906
 
 
5907
  /*
5915
5908
    Flags, for {keypart0, keypart1, ... this_keypart} subtuple.
5916
5909
    min_key_flag may have NULL_RANGE set.
5917
5910
  */
5918
5911
  uint32_t min_key_flag, max_key_flag;
5919
 
  
 
5912
 
5920
5913
  /* Number of key parts */
5921
5914
  uint32_t min_key_parts, max_key_parts;
5922
5915
  SEL_ARG *key_tree;
5932
5925
  uint32_t real_keyno; /* Number of the index in tables */
5933
5926
  PARAM *param;
5934
5927
  SEL_ARG *start; /* Root node of the traversed SEL_ARG* graph */
5935
 
  
 
5928
 
5936
5929
  RANGE_SEQ_ENTRY stack[MAX_REF_PARTS];
5937
5930
  int i; /* Index of last used element in the above array */
5938
 
  
 
5931
 
5939
5932
  bool at_start; /* true <=> The traversal has just started */
5940
5933
} SEL_ARG_RANGE_SEQ;
5941
5934
 
5946
5939
  SYNOPSIS
5947
5940
    init()
5948
5941
      init_params  SEL_ARG tree traversal context
5949
 
      n_ranges     [ignored] The number of ranges obtained 
 
5942
      n_ranges     [ignored] The number of ranges obtained
5950
5943
      flags        [ignored] HA_MRR_SINGLE_POINT, HA_MRR_FIXED_KEY
5951
5944
 
5952
5945
  RETURN
5953
5946
    Value of init_param
5954
5947
*/
5955
5948
 
5956
 
range_seq_t sel_arg_range_seq_init(void *init_param,
5957
 
                                   uint32_t n_ranges __attribute__((unused)),
5958
 
                                   uint32_t flags __attribute__((unused)))
 
5949
range_seq_t sel_arg_range_seq_init(void *init_param, uint32_t, uint32_t)
5959
5950
{
5960
5951
  SEL_ARG_RANGE_SEQ *seq= (SEL_ARG_RANGE_SEQ*)init_param;
5961
5952
  seq->at_start= true;
5976
5967
{
5977
5968
  RANGE_SEQ_ENTRY *cur= &arg->stack[arg->i+1];
5978
5969
  RANGE_SEQ_ENTRY *prev= &arg->stack[arg->i];
5979
 
  
 
5970
 
5980
5971
  cur->key_tree= key_tree;
5981
5972
  cur->min_key= prev->min_key;
5982
5973
  cur->max_key= prev->max_key;
6000
5991
 
6001
5992
/*
6002
5993
  Range sequence interface, SEL_ARG* implementation: get the next interval
6003
 
  
 
5994
 
6004
5995
  SYNOPSIS
6005
5996
    sel_arg_range_seq_next()
6006
5997
      rseq        Value returned from sel_arg_range_seq_init
6035
6026
 
6036
6027
  key_tree= seq->stack[seq->i].key_tree;
6037
6028
  /* Ok, we're at some "full tuple" position in the tree */
6038
 
 
 
6029
 
6039
6030
  /* Step down if we can */
6040
6031
  if (key_tree->next && key_tree->next != &null_element)
6041
6032
  {
6072
6063
    Walk right-up while we can
6073
6064
  */
6074
6065
walk_right_n_up:
6075
 
  while (key_tree->next_key_part && key_tree->next_key_part != &null_element && 
 
6066
  while (key_tree->next_key_part && key_tree->next_key_part != &null_element &&
6076
6067
         key_tree->next_key_part->part == key_tree->part + 1 &&
6077
6068
         key_tree->next_key_part->type == SEL_ARG::KEY_RANGE)
6078
6069
  {
6087
6078
      {
6088
6079
        seq->param->is_ror_scan= false;
6089
6080
        if (!key_tree->min_flag)
6090
 
          cur->min_key_parts += 
 
6081
          cur->min_key_parts +=
6091
6082
            key_tree->next_key_part->store_min_key(seq->param->key[seq->keyno],
6092
6083
                                                   &cur->min_key,
6093
6084
                                                   &cur->min_key_flag);
6094
6085
        if (!key_tree->max_flag)
6095
 
          cur->max_key_parts += 
 
6086
          cur->max_key_parts +=
6096
6087
            key_tree->next_key_part->store_max_key(seq->param->key[seq->keyno],
6097
6088
                                                   &cur->max_key,
6098
6089
                                                   &cur->max_key_flag);
6099
6090
        break;
6100
6091
      }
6101
6092
    }
6102
 
  
 
6093
 
6103
6094
    /*
6104
6095
      Ok, current atomic interval is in form "t.field=const" and there is
6105
6096
      next_key_part interval. Step right, and walk up from there.
6117
6108
 
6118
6109
  /* Ok got a tuple */
6119
6110
  RANGE_SEQ_ENTRY *cur= &seq->stack[seq->i];
6120
 
  
 
6111
 
6121
6112
  range->ptr= (char*)(int)(key_tree->part);
6122
6113
  {
6123
6114
    range->range_flag= cur->min_key_flag | cur->max_key_flag;
6124
 
    
 
6115
 
6125
6116
    range->start_key.key=    seq->param->min_key;
6126
6117
    range->start_key.length= cur->min_key - seq->param->min_key;
6127
6118
    range->start_key.keypart_map= make_prev_keypart_map(cur->min_key_parts);
6128
 
    range->start_key.flag= (cur->min_key_flag & NEAR_MIN ? HA_READ_AFTER_KEY : 
 
6119
    range->start_key.flag= (cur->min_key_flag & NEAR_MIN ? HA_READ_AFTER_KEY :
6129
6120
                                                           HA_READ_KEY_EXACT);
6130
6121
 
6131
6122
    range->end_key.key=    seq->param->max_key;
6132
6123
    range->end_key.length= cur->max_key - seq->param->max_key;
6133
 
    range->end_key.flag= (cur->max_key_flag & NEAR_MAX ? HA_READ_BEFORE_KEY : 
 
6124
    range->end_key.flag= (cur->max_key_flag & NEAR_MAX ? HA_READ_BEFORE_KEY :
6134
6125
                                                         HA_READ_AFTER_KEY);
6135
6126
    range->end_key.keypart_map= make_prev_keypart_map(cur->max_key_parts);
6136
6127
 
6141
6132
        range->start_key.length == range->end_key.length &&
6142
6133
        !memcmp(seq->param->min_key,seq->param->max_key,range->start_key.length))
6143
6134
      range->range_flag= UNIQUE_RANGE | (cur->min_key_flag & NULL_RANGE);
6144
 
      
 
6135
 
6145
6136
    if (seq->param->is_ror_scan)
6146
6137
    {
6147
6138
      /*
6167
6158
 
6168
6159
 
6169
6160
/*
6170
 
  Calculate cost and E(#rows) for a given index and intervals tree 
 
6161
  Calculate cost and E(#rows) for a given index and intervals tree
6171
6162
 
6172
6163
  SYNOPSIS
6173
6164
    check_quick_select()
6195
6186
 
6196
6187
static
6197
6188
ha_rows check_quick_select(PARAM *param, uint32_t idx, bool index_only,
6198
 
                           SEL_ARG *tree, bool update_tbl_stats, 
 
6189
                           SEL_ARG *tree, bool update_tbl_stats,
6199
6190
                           uint32_t *mrr_flags, uint32_t *bufsize, COST_VECT *cost)
6200
6191
{
6201
6192
  SEL_ARG_RANGE_SEQ seq;
6203
6194
  handler *file= param->table->file;
6204
6195
  ha_rows rows;
6205
6196
  uint32_t keynr= param->real_keynr[idx];
6206
 
  
 
6197
 
6207
6198
  /* Handle cases when we don't have a valid non-empty list of range */
6208
6199
  if (!tree)
6209
6200
    return(HA_POS_ERROR);
6223
6214
  param->is_ror_scan= true;
6224
6215
  if (file->index_flags(keynr, 0, true) & HA_KEY_SCAN_NOT_ROR)
6225
6216
    param->is_ror_scan= false;
6226
 
  
 
6217
 
6227
6218
  *mrr_flags= param->force_default_mrr? HA_MRR_USE_DEFAULT_IMPL: 0;
6228
6219
  *mrr_flags|= HA_MRR_NO_ASSOCIATION;
6229
6220
 
6230
6221
  bool pk_is_clustered= file->primary_key_is_clustered();
6231
 
  if (index_only && 
 
6222
  if (index_only &&
6232
6223
      (file->index_flags(keynr, param->max_key_part, 1) & HA_KEYREAD_ONLY) &&
6233
6224
      !(pk_is_clustered && keynr == param->table->s->primary_key))
6234
6225
     *mrr_flags |= HA_MRR_INDEX_ONLY;
6235
 
  
 
6226
 
6236
6227
  if (current_session->lex->sql_command != SQLCOM_SELECT)
6237
6228
    *mrr_flags |= HA_MRR_USE_DEFAULT_IMPL;
6238
6229
 
6255
6246
  enum ha_key_alg key_alg= param->table->key_info[seq.real_keyno].algorithm;
6256
6247
  if ((key_alg != HA_KEY_ALG_BTREE) && (key_alg!= HA_KEY_ALG_UNDEF))
6257
6248
  {
6258
 
    /* 
 
6249
    /*
6259
6250
      All scans are non-ROR scans for those index types.
6260
 
      TODO: Don't have this logic here, make table engines return 
 
6251
      TODO: Don't have this logic here, make table engines return
6261
6252
      appropriate flags instead.
6262
6253
    */
6263
6254
    param->is_ror_scan= false;
6296
6287
 
6297
6288
    where the index is defined on (key1_1, ..., key1_N [,a_1, ..., a_n])
6298
6289
 
6299
 
    and the table has a clustered Primary Key defined as 
6300
 
      PRIMARY KEY(a_1, ..., a_n, b1, ..., b_k) 
6301
 
    
6302
 
    i.e. the first key parts of it are identical to uncovered parts ot the 
 
6290
    and the table has a clustered Primary Key defined as
 
6291
      PRIMARY KEY(a_1, ..., a_n, b1, ..., b_k)
 
6292
 
 
6293
    i.e. the first key parts of it are identical to uncovered parts ot the
6303
6294
    key being scanned. This function assumes that the index flags do not
6304
6295
    include HA_KEY_SCAN_NOT_ROR flag (that is checked elsewhere).
6305
6296
 
6317
6308
  KEY_PART_INFO *key_part_end= (table_key->key_part +
6318
6309
                                table_key->key_parts);
6319
6310
  uint32_t pk_number;
6320
 
  
 
6311
 
6321
6312
  for (KEY_PART_INFO *kp= table_key->key_part; kp < key_part; kp++)
6322
6313
  {
6323
6314
    uint16_t fieldnr= param->table->key_info[keynr].
6402
6393
                    param->table->key_info[param->real_keynr[idx]].key_parts);
6403
6394
    }
6404
6395
  }
6405
 
  return(quick);
 
6396
  return quick;
6406
6397
}
6407
6398
 
6408
6399
 
6546
6537
  Return true if any part of the key is NULL
6547
6538
 
6548
6539
  SYNOPSIS
6549
 
    null_part_in_key()    
 
6540
    null_part_in_key()
6550
6541
      key_part  Array of key parts (index description)
6551
6542
      key       Key values tuple
6552
6543
      length    Length of key values tuple in bytes.
6709
6700
  }
6710
6701
 
6711
6702
  /* Call multi_range_read_info() to get the MRR flags and buffer size */
6712
 
  quick->mrr_flags= HA_MRR_NO_ASSOCIATION | 
 
6703
  quick->mrr_flags= HA_MRR_NO_ASSOCIATION |
6713
6704
                    (table->key_read ? HA_MRR_INDEX_ONLY : 0);
6714
6705
  if (session->lex->sql_command != SQLCOM_SELECT)
6715
6706
    quick->mrr_flags |= HA_MRR_USE_DEFAULT_IMPL;
6728
6719
 
6729
6720
 
6730
6721
/*
6731
 
  Perform key scans for all used indexes (except CPK), get rowids and merge 
 
6722
  Perform key scans for all used indexes (except CPK), get rowids and merge
6732
6723
  them into an ordered non-recurrent sequence of rowids.
6733
 
  
 
6724
 
6734
6725
  The merge/duplicate removal is performed using Unique class. We put all
6735
6726
  rowids into Unique, get the sorted sequence and destroy the Unique.
6736
 
  
 
6727
 
6737
6728
  If table has a clustered primary key that covers all rows (true for bdb
6738
6729
  and innodb currently) and one of the index_merge scans is a scan on PK,
6739
 
  then rows that will be retrieved by PK scan are not put into Unique and 
 
6730
  then rows that will be retrieved by PK scan are not put into Unique and
6740
6731
  primary key scan is not performed here, it is performed later separately.
6741
6732
 
6742
6733
  RETURN
6758
6749
  cur_quick_it.rewind();
6759
6750
  cur_quick= cur_quick_it++;
6760
6751
  assert(cur_quick != 0);
6761
 
  
 
6752
 
6762
6753
  /*
6763
 
    We reuse the same instance of handler so we need to call both init and 
 
6754
    We reuse the same instance of handler so we need to call both init and
6764
6755
    reset here.
6765
6756
  */
6766
6757
  if (cur_quick->init() || cur_quick->reset())
6767
 
    return(1);
 
6758
    return 0;
6768
6759
 
6769
6760
  unique= new Unique(refpos_order_cmp, (void *)file,
6770
6761
                     file->ref_length,
6771
6762
                     session->variables.sortbuff_size);
6772
6763
  if (!unique)
6773
 
    return(1);
 
6764
    return 0;
6774
6765
  for (;;)
6775
6766
  {
6776
6767
    while ((result= cur_quick->get_next()) == HA_ERR_END_OF_FILE)
6780
6771
      if (!cur_quick)
6781
6772
        break;
6782
6773
 
6783
 
      if (cur_quick->file->inited != handler::NONE) 
 
6774
      if (cur_quick->file->inited != handler::NONE)
6784
6775
        cur_quick->file->ha_index_end();
6785
6776
      if (cur_quick->init() || cur_quick->reset())
6786
 
        return(1);
 
6777
        return 0;
6787
6778
    }
6788
6779
 
6789
6780
    if (result)
6791
6782
      if (result != HA_ERR_END_OF_FILE)
6792
6783
      {
6793
6784
        cur_quick->range_end();
6794
 
        return(result);
 
6785
        return result;
6795
6786
      }
6796
6787
      break;
6797
6788
    }
6798
6789
 
6799
6790
    if (session->killed)
6800
 
      return(1);
 
6791
      return 0;
6801
6792
 
6802
6793
    /* skip row if it will be retrieved by clustered PK scan */
6803
6794
    if (pk_quick_select && pk_quick_select->row_in_ranges())
6806
6797
    cur_quick->file->position(cur_quick->record);
6807
6798
    result= unique->unique_add((char*)cur_quick->file->ref);
6808
6799
    if (result)
6809
 
      return(1);
 
6800
      return 0;
6810
6801
 
6811
6802
  }
6812
6803
 
6818
6809
  file->extra(HA_EXTRA_NO_KEYREAD);
6819
6810
  /* start table scan */
6820
6811
  init_read_record(&read_record, session, head, (SQL_SELECT*) 0, 1, 1);
6821
 
  return(result);
 
6812
  return result;
6822
6813
}
6823
6814
 
6824
6815
 
6848
6839
      doing_pk_scan= true;
6849
6840
      if ((result= pk_quick_select->init()) ||
6850
6841
          (result= pk_quick_select->reset()))
6851
 
        return(result);
 
6842
        return result;
6852
6843
      return(pk_quick_select->get_next());
6853
6844
    }
6854
6845
  }
6855
6846
 
6856
 
  return(result);
 
6847
  return result;
6857
6848
}
6858
6849
 
6859
6850
 
7023
7014
 
7024
7015
  if (file->inited == handler::NONE && (error= file->ha_index_init(index,1)))
7025
7016
    return(error);
7026
 
 
 
7017
 
7027
7018
  /* Allocate buffer if we need one but haven't allocated it yet */
7028
7019
  if (mrr_buf_size && !mrr_buf_desc)
7029
7020
  {
7047
7038
 
7048
7039
  if (!mrr_buf_desc)
7049
7040
    empty_buf.buffer= empty_buf.buffer_end= empty_buf.end_of_used_area= NULL;
7050
 
 
 
7041
 
7051
7042
  if (sorted)
7052
7043
     mrr_flags |= HA_MRR_SORTED;
7053
7044
  RANGE_SEQ_IF seq_funcs= {quick_range_seq_init, quick_range_seq_next};
7054
7045
  error= file->multi_range_read_init(&seq_funcs, (void*)this, ranges.elements,
7055
 
                                     mrr_flags, mrr_buf_desc? mrr_buf_desc: 
 
7046
                                     mrr_flags, mrr_buf_desc? mrr_buf_desc:
7056
7047
                                                              &empty_buf);
7057
7048
  return(error);
7058
7049
}
7060
7051
 
7061
7052
/*
7062
7053
  Range sequence interface implementation for array<QUICK_RANGE>: initialize
7063
 
  
 
7054
 
7064
7055
  SYNOPSIS
7065
7056
    quick_range_seq_init()
7066
7057
      init_param  Caller-opaque paramenter: QUICK_RANGE_SELECT* pointer
7067
7058
      n_ranges    Number of ranges in the sequence (ignored)
7068
 
      flags       MRR flags (currently not used) 
 
7059
      flags       MRR flags (currently not used)
7069
7060
 
7070
7061
  RETURN
7071
7062
    Opaque value to be passed to quick_range_seq_next
7072
7063
*/
7073
7064
 
7074
 
range_seq_t quick_range_seq_init(void *init_param,
7075
 
                                 uint32_t n_ranges __attribute__((unused)),
7076
 
                                 uint32_t flags __attribute__((unused)))
 
7065
range_seq_t quick_range_seq_init(void *init_param, uint32_t, uint32_t)
7077
7066
{
7078
7067
  QUICK_RANGE_SELECT *quick= (QUICK_RANGE_SELECT*)init_param;
7079
7068
  quick->qr_traversal_ctx.first=  (QUICK_RANGE**)quick->ranges.buffer;
7086
7075
 
7087
7076
/*
7088
7077
  Range sequence interface implementation for array<QUICK_RANGE>: get next
7089
 
  
 
7078
 
7090
7079
  SYNOPSIS
7091
7080
    quick_range_seq_next()
7092
7081
      rseq        Value returned from quick_range_seq_init
7142
7131
    function returns a reference to the "range_flag" associated with the
7143
7132
    range number idx.
7144
7133
 
7145
 
    This function should be removed when we get a proper MRR/NDB 
 
7134
    This function should be removed when we get a proper MRR/NDB
7146
7135
    implementation.
7147
7136
 
7148
7137
  RETURN
7181
7170
    Reference to range-associated data
7182
7171
*/
7183
7172
 
7184
 
char* &mrr_get_ptr_by_idx(range_seq_t seq __attribute__((unused)),
7185
 
                          uint32_t idx __attribute__((unused)))
 
7173
char* &mrr_get_ptr_by_idx(range_seq_t, uint32_t)
7186
7174
{
7187
7175
  static char *dummy;
7188
7176
  return dummy;
7223
7211
    /* Restore bitmaps set on entry */
7224
7212
    head->column_bitmaps_set_no_signal(save_read_set, save_write_set);
7225
7213
  }
7226
 
  return(result);
 
7214
  return result;
7227
7215
}
7228
7216
 
7229
7217
 
7270
7258
      result= file->index_read_map(record, cur_prefix, keypart_map,
7271
7259
                                   HA_READ_AFTER_KEY);
7272
7260
      if (result || (file->compare_key(file->end_range) <= 0))
7273
 
        return(result);
 
7261
        return result;
7274
7262
    }
7275
7263
 
7276
7264
    uint32_t count= ranges.elements - (cur_range - (QUICK_RANGE**) ranges.buffer);
7278
7266
    {
7279
7267
      /* Ranges have already been used up before. None is left for read. */
7280
7268
      last_range= 0;
7281
 
      return(HA_ERR_END_OF_FILE);
 
7269
      return HA_ERR_END_OF_FILE;
7282
7270
    }
7283
7271
    last_range= *(cur_range++);
7284
7272
 
7306
7294
      last_range= 0;                    // Stop searching
7307
7295
 
7308
7296
    if (result != HA_ERR_END_OF_FILE)
7309
 
      return(result);
 
7297
      return result;
7310
7298
    last_range= 0;                      // No matching rows; go to next range
7311
7299
  }
7312
7300
}
7362
7350
  for now, this seems to work right at least.
7363
7351
 */
7364
7352
 
7365
 
QUICK_SELECT_DESC::QUICK_SELECT_DESC(QUICK_RANGE_SELECT *q,
7366
 
                                     uint32_t used_key_parts_arg __attribute__((unused)),
7367
 
                                     bool *create_err __attribute__((unused)))
 
7353
QUICK_SELECT_DESC::QUICK_SELECT_DESC(QUICK_RANGE_SELECT *q, uint32_t, bool *)
7368
7354
 :QUICK_RANGE_SELECT(*q), rev_it(rev_ranges)
7369
7355
{
7370
7356
  QUICK_RANGE *r;
7412
7398
      if (!result)
7413
7399
      {
7414
7400
        if (cmp_prev(*rev_it.ref()) == 0)
7415
 
          return(0);
 
7401
          return 0;
7416
7402
      }
7417
7403
      else if (result != HA_ERR_END_OF_FILE)
7418
 
        return(result);
 
7404
        return result;
7419
7405
    }
7420
7406
 
7421
7407
    if (!(last_range= rev_it++))
7422
 
      return(HA_ERR_END_OF_FILE);               // All ranges used
 
7408
      return HA_ERR_END_OF_FILE;                // All ranges used
7423
7409
 
7424
7410
    if (last_range->flag & NO_MAX_RANGE)        // Read last record
7425
7411
    {
7427
7413
      if ((local_error=file->index_last(record)))
7428
7414
        return(local_error);            // Empty table
7429
7415
      if (cmp_prev(last_range) == 0)
7430
 
        return(0);
 
7416
        return 0;
7431
7417
      last_range= 0;                            // No match; go to next range
7432
7418
      continue;
7433
7419
    }
7451
7437
    if (result)
7452
7438
    {
7453
7439
      if (result != HA_ERR_KEY_NOT_FOUND && result != HA_ERR_END_OF_FILE)
7454
 
        return(result);
 
7440
        return result;
7455
7441
      last_range= 0;                            // Not found, to next range
7456
7442
      continue;
7457
7443
    }
7459
7445
    {
7460
7446
      if (last_range->flag == (UNIQUE_RANGE | EQ_RANGE))
7461
7447
        last_range= 0;                          // Stop searching
7462
 
      return(0);                                // Found key is in range
 
7448
      return 0;                         // Found key is in range
7463
7449
    }
7464
7450
    last_range= 0;                              // To next range
7465
7451
  }
7469
7455
/*
7470
7456
  Compare if found key is over max-value
7471
7457
  Returns 0 if key <= range->max_key
7472
 
  TODO: Figure out why can't this function be as simple as cmp_prev(). 
 
7458
  TODO: Figure out why can't this function be as simple as cmp_prev().
7473
7459
*/
7474
7460
 
7475
7461
int QUICK_RANGE_SELECT::cmp_next(QUICK_RANGE *range_arg)
7762
7748
        - NGA = QA - (GA union C) = {NG_1, ..., NG_m} - the ones not in
7763
7749
          GROUP BY and not referenced by MIN/MAX functions.
7764
7750
        with the following properties specified below.
7765
 
    B3. If Q has a GROUP BY WITH ROLLUP clause the access method is not 
 
7751
    B3. If Q has a GROUP BY WITH ROLLUP clause the access method is not
7766
7752
        applicable.
7767
7753
 
7768
7754
    SA1. There is at most one attribute in SA referenced by any number of
7850
7836
    other field as in: "select min(a) from t1 group by a" ?
7851
7837
  - We assume that the general correctness of the GROUP-BY query was checked
7852
7838
    before this point. Is this correct, or do we have to check it completely?
7853
 
  - Lift the limitation in condition (B3), that is, make this access method 
 
7839
  - Lift the limitation in condition (B3), that is, make this access method
7854
7840
    applicable to ROLLUP queries.
7855
7841
 
7856
7842
  RETURN
7887
7873
 
7888
7874
  /* Perform few 'cheap' tests whether this access method is applicable. */
7889
7875
  if (!join)
7890
 
    return(NULL);        /* This is not a select statement. */
 
7876
    return NULL;        /* This is not a select statement. */
7891
7877
  if ((join->tables != 1) ||  /* The query must reference one table. */
7892
7878
      ((!join->group_list) && /* Neither GROUP BY nor a DISTINCT query. */
7893
7879
       (!join->select_distinct)) ||
7894
7880
      (join->select_lex->olap == ROLLUP_TYPE)) /* Check (B3) for ROLLUP */
7895
 
    return(NULL);
 
7881
    return NULL;
7896
7882
  if (table->s->keys == 0)        /* There are no indexes to use. */
7897
 
    return(NULL);
 
7883
    return NULL;
7898
7884
 
7899
7885
  /* Analyze the query in more detail. */
7900
7886
  List_iterator<Item> select_items_it(join->fields_list);
7901
7887
 
7902
7888
  /* Check (SA1,SA4) and store the only MIN/MAX argument - the C attribute.*/
7903
7889
  if (join->make_sum_func_list(join->all_fields, join->fields_list, 1))
7904
 
    return(NULL);
 
7890
    return NULL;
7905
7891
  if (join->sum_funcs[0])
7906
7892
  {
7907
7893
    Item_sum *min_max_item;
7913
7899
      else if (min_max_item->sum_func() == Item_sum::MAX_FUNC)
7914
7900
        have_max= true;
7915
7901
      else
7916
 
        return(NULL);
 
7902
        return NULL;
7917
7903
 
7918
7904
      /* The argument of MIN/MAX. */
7919
 
      Item *expr= min_max_item->args[0]->real_item();    
 
7905
      Item *expr= min_max_item->args[0]->real_item();
7920
7906
      if (expr->type() == Item::FIELD_ITEM) /* Is it an attribute? */
7921
7907
      {
7922
7908
        if (! min_max_arg_item)
7923
7909
          min_max_arg_item= (Item_field*) expr;
7924
7910
        else if (! min_max_arg_item->eq(expr, 1))
7925
 
          return(NULL);
 
7911
          return NULL;
7926
7912
      }
7927
7913
      else
7928
 
        return(NULL);
 
7914
        return NULL;
7929
7915
    }
7930
7916
  }
7931
7917
 
7935
7921
    while ((item= select_items_it++))
7936
7922
    {
7937
7923
      if (item->type() != Item::FIELD_ITEM)
7938
 
        return(NULL);
 
7924
        return NULL;
7939
7925
    }
7940
7926
  }
7941
7927
 
7943
7929
  for (tmp_group= join->group_list; tmp_group; tmp_group= tmp_group->next)
7944
7930
  {
7945
7931
    if ((*tmp_group->item)->type() != Item::FIELD_ITEM)
7946
 
      return(NULL);
 
7932
      return NULL;
7947
7933
  }
7948
7934
 
7949
7935
  /*
8195
8181
      COST_VECT dummy_cost;
8196
8182
      uint32_t mrr_flags= HA_MRR_USE_DEFAULT_IMPL;
8197
8183
      uint32_t mrr_bufsize=0;
8198
 
      cur_quick_prefix_records= check_quick_select(param, cur_param_idx, 
8199
 
                                                   false /*don't care*/, 
 
8184
      cur_quick_prefix_records= check_quick_select(param, cur_param_idx,
 
8185
                                                   false /*don't care*/,
8200
8186
                                                   cur_index_tree, true,
8201
8187
                                                   &mrr_flags, &mrr_bufsize,
8202
8188
                                                   &dummy_cost);
8229
8215
    cur_group_prefix_len= 0;
8230
8216
  }
8231
8217
  if (!index_info) /* No usable index found. */
8232
 
    return(NULL);
 
8218
    return NULL;
8233
8219
 
8234
8220
  /* Check (SA3) for the where clause. */
8235
8221
  if (join->conds && min_max_arg_item &&
8236
8222
      !check_group_min_max_predicates(join->conds, min_max_arg_item, Field::itRAW))
8237
 
    return(NULL);
 
8223
    return NULL;
8238
8224
 
8239
8225
  /* The query passes all tests, so construct a new TRP object. */
8240
8226
  read_plan= new (param->mem_root)
8248
8234
  if (read_plan)
8249
8235
  {
8250
8236
    if (tree && read_plan->quick_prefix_records == 0)
8251
 
      return(NULL);
 
8237
      return NULL;
8252
8238
 
8253
8239
    read_plan->read_cost= best_read_cost;
8254
8240
    read_plan->records=   best_records;
8255
8241
  }
8256
8242
 
8257
 
  return(read_plan);
 
8243
  return read_plan;
8258
8244
}
8259
8245
 
8260
8246
 
8296
8282
    {
8297
8283
      if (!check_group_min_max_predicates(and_or_arg, min_max_arg_item,
8298
8284
                                         image_type))
8299
 
        return(false);
 
8285
        return false;
8300
8286
    }
8301
 
    return(true);
 
8287
    return true;
8302
8288
  }
8303
8289
 
8304
8290
  /*
8311
8297
    so.
8312
8298
  */
8313
8299
  if (cond_type == Item::SUBSELECT_ITEM)
8314
 
    return(false);
8315
 
  
 
8300
    return false;
 
8301
 
8316
8302
  /* We presume that at this point there are no other Items than functions. */
8317
8303
  assert(cond_type == Item::FUNC_ITEM);
8318
8304
 
8325
8311
    cur_arg= arguments[arg_idx]->real_item();
8326
8312
    if (cur_arg->type() == Item::FIELD_ITEM)
8327
8313
    {
8328
 
      if (min_max_arg_item->eq(cur_arg, 1)) 
 
8314
      if (min_max_arg_item->eq(cur_arg, 1))
8329
8315
      {
8330
8316
       /*
8331
8317
         If pred references the MIN/MAX argument, check whether pred is a range
8342
8328
            pred_type != Item_func::ISNOTNULL_FUNC &&
8343
8329
            pred_type != Item_func::EQ_FUNC        &&
8344
8330
            pred_type != Item_func::NE_FUNC)
8345
 
          return(false);
 
8331
          return false;
8346
8332
 
8347
8333
        /* Check that pred compares min_max_arg_item with a constant. */
8348
8334
        Item *args[3];
8350
8336
        bool inv;
8351
8337
        /* Test if this is a comparison of a field and a constant. */
8352
8338
        if (!simple_pred(pred, args, &inv))
8353
 
          return(false);
 
8339
          return false;
8354
8340
 
8355
8341
        /* Check for compatible string comparisons - similar to get_mm_leaf. */
8356
8342
        if (args[0] && args[1] && !args[2] && // this is a binary function
8369
8355
             */
8370
8356
             (args[1]->result_type() != STRING_RESULT &&
8371
8357
              min_max_arg_item->field->cmp_type() != args[1]->result_type())))
8372
 
          return(false);
 
8358
          return false;
8373
8359
      }
8374
8360
    }
8375
8361
    else if (cur_arg->type() == Item::FUNC_ITEM)
8376
8362
    {
8377
8363
      if (!check_group_min_max_predicates(cur_arg, min_max_arg_item,
8378
8364
                                         image_type))
8379
 
        return(false);
 
8365
        return false;
8380
8366
    }
8381
8367
    else if (cur_arg->const_item())
8382
8368
    {
8383
 
      return(true);
 
8369
      return true;
8384
8370
    }
8385
8371
    else
8386
 
      return(false);
 
8372
      return false;
8387
8373
  }
8388
8374
 
8389
 
  return(true);
 
8375
  return true;
8390
8376
}
8391
8377
 
8392
8378
 
8404
8390
    key_infix              [out] Infix of constants to be used for index lookup
8405
8391
    key_infix_len          [out] Lenghth of the infix
8406
8392
    first_non_infix_part   [out] The first keypart after the infix (if any)
8407
 
    
 
8393
 
8408
8394
  DESCRIPTION
8409
8395
    Test conditions (NGA1, NGA2) from get_best_group_min_max(). Namely,
8410
8396
    for each keypart field NGF_i not in GROUP-BY, check that there is a
8422
8408
*/
8423
8409
 
8424
8410
static bool
8425
 
get_constant_key_infix(KEY *index_info __attribute__((unused)),
8426
 
                       SEL_ARG *index_range_tree,
 
8411
get_constant_key_infix(KEY *, SEL_ARG *index_range_tree,
8427
8412
                       KEY_PART_INFO *first_non_group_part,
8428
8413
                       KEY_PART_INFO *min_max_arg_part,
8429
8414
                       KEY_PART_INFO *last_part,
8430
 
                       Session *session __attribute__((unused)),
8431
 
                       unsigned char *key_infix, uint32_t *key_infix_len,
 
8415
                       Session *, unsigned char *key_infix, uint32_t *key_infix_len,
8432
8416
                       KEY_PART_INFO **first_non_infix_part)
8433
8417
{
8434
8418
  SEL_ARG       *cur_range;
8555
8539
    idx++;
8556
8540
  }
8557
8541
  *param_idx= idx;
8558
 
  return(range_tree->keys[idx]);
 
8542
  return range_tree->keys[idx];
8559
8543
}
8560
8544
 
8561
8545
 
8621
8605
 
8622
8606
void cost_group_min_max(Table* table, KEY *index_info, uint32_t used_key_parts,
8623
8607
                        uint32_t group_key_parts, SEL_TREE *range_tree,
8624
 
                        SEL_ARG *index_tree __attribute__((unused)),
8625
 
                        ha_rows quick_prefix_records,
 
8608
                        SEL_ARG *, ha_rows quick_prefix_records,
8626
8609
                        bool have_min, bool have_max,
8627
8610
                        double *read_cost, ha_rows *records)
8628
8611
{
8691
8674
 
8692
8675
  *read_cost= io_cost + cpu_cost;
8693
8676
  *records= num_groups;
8694
 
  return;
8695
8677
}
8696
8678
 
8697
8679
 
8717
8699
*/
8718
8700
 
8719
8701
QUICK_SELECT_I *
8720
 
TRP_GROUP_MIN_MAX::make_quick(PARAM *param,
8721
 
                              bool retrieve_full_rows __attribute__((unused)),
8722
 
                              MEM_ROOT *parent_alloc)
 
8702
TRP_GROUP_MIN_MAX::make_quick(PARAM *param, bool, MEM_ROOT *parent_alloc)
8723
8703
{
8724
8704
  QUICK_GROUP_MIN_MAX_SELECT *quick;
8725
8705
 
8731
8711
                                        read_cost, records, key_infix_len,
8732
8712
                                        key_infix, parent_alloc);
8733
8713
  if (!quick)
8734
 
    return(NULL);
 
8714
    return NULL;
8735
8715
 
8736
8716
  if (quick->init())
8737
8717
  {
8738
8718
    delete quick;
8739
 
    return(NULL);
 
8719
    return NULL;
8740
8720
  }
8741
8721
 
8742
8722
  if (range_tree)
8775
8755
        {
8776
8756
          delete quick;
8777
8757
          quick= NULL;
8778
 
          return(NULL);
 
8758
          return NULL;
8779
8759
        }
8780
8760
        min_max_range= min_max_range->next;
8781
8761
      }
8787
8767
  quick->update_key_stat();
8788
8768
  quick->adjust_prefix_ranges();
8789
8769
 
8790
 
  return(quick);
 
8770
  return quick;
8791
8771
}
8792
8772
 
8793
8773
 
8865
8845
 
8866
8846
  SYNOPSIS
8867
8847
    QUICK_GROUP_MIN_MAX_SELECT::init()
8868
 
  
 
8848
 
8869
8849
  DESCRIPTION
8870
8850
    The method performs initialization that cannot be done in the constructor
8871
8851
    such as memory allocations that may fail. It allocates memory for the
8956
8936
 
8957
8937
QUICK_GROUP_MIN_MAX_SELECT::~QUICK_GROUP_MIN_MAX_SELECT()
8958
8938
{
8959
 
  if (file->inited != handler::NONE) 
 
8939
  if (file->inited != handler::NONE)
8960
8940
    file->ha_index_end();
8961
8941
  if (min_max_arg_part)
8962
8942
    delete_dynamic(&min_max_ranges);
8964
8944
  delete min_functions_it;
8965
8945
  delete max_functions_it;
8966
8946
  delete quick_prefix_select;
8967
 
  return; 
8968
8947
}
8969
8948
 
8970
8949
 
8973
8952
 
8974
8953
  SYNOPSIS
8975
8954
    QUICK_GROUP_MIN_MAX_SELECT::add_range()
8976
 
    sel_range  Range object from which a 
 
8955
    sel_range  Range object from which a
8977
8956
 
8978
8957
  NOTES
8979
8958
    Construct a new QUICK_RANGE object from a SEL_ARG object, and
9027
9006
 
9028
9007
  NOTES
9029
9008
    quick_prefix_select is made over the conditions on the whole key.
9030
 
    It defines a number of ranges of length x. 
9031
 
    However when jumping through the prefixes we use only the the first 
 
9009
    It defines a number of ranges of length x.
 
9010
    However when jumping through the prefixes we use only the the first
9032
9011
    few most significant keyparts in the range key. However if there
9033
 
    are more keyparts to follow the ones we are using we must make the 
9034
 
    condition on the key inclusive (because x < "ab" means 
 
9012
    are more keyparts to follow the ones we are using we must make the
 
9013
    condition on the key inclusive (because x < "ab" means
9035
9014
    x[0] < 'a' OR (x[0] == 'a' AND x[1] < 'b').
9036
9015
    To achive the above we must turn off the NEAR_MIN/NEAR_MAX
9037
9016
*/
9141
9120
 
9142
9121
  file->extra(HA_EXTRA_KEYREAD); /* We need only the key attributes */
9143
9122
  if ((result= file->ha_index_init(index,1)))
9144
 
    return(result);
 
9123
    return result;
9145
9124
  if (quick_prefix_select && quick_prefix_select->reset())
9146
 
    return(1);
 
9125
    return 0;
9147
9126
  result= file->index_last(record);
9148
9127
  if (result == HA_ERR_END_OF_FILE)
9149
 
    return(0);
 
9128
    return 0;
9150
9129
  /* Save the prefix of the last group. */
9151
9130
  key_copy(last_prefix, record, index_info, group_prefix_len);
9152
9131
 
9153
 
  return(0);
 
9132
  return 0;
9154
9133
}
9155
9134
 
9156
9135
 
9157
9136
 
9158
 
/* 
 
9137
/*
9159
9138
  Get the next key containing the MIN and/or MAX key for the next group.
9160
9139
 
9161
9140
  SYNOPSIS
9206
9185
                              group_prefix_len);
9207
9186
      assert(is_last_prefix <= 0);
9208
9187
    }
9209
 
    else 
 
9188
    else
9210
9189
    {
9211
9190
      if (result == HA_ERR_KEY_NOT_FOUND)
9212
9191
        continue;
9227
9206
      if (max_res == 0)
9228
9207
        update_max_result();
9229
9208
      /* If a MIN was found, a MAX must have been found as well. */
9230
 
      assert((have_max && !have_min) ||
9231
 
                  (have_max && have_min && (max_res == 0)));
 
9209
      assert(((have_max && !have_min) ||
 
9210
                  (have_max && have_min && (max_res == 0))));
9232
9211
    }
9233
9212
    /*
9234
9213
      If this is just a GROUP BY or DISTINCT without MIN or MAX and there
9257
9236
  else if (result == HA_ERR_KEY_NOT_FOUND)
9258
9237
    result= HA_ERR_END_OF_FILE;
9259
9238
 
9260
 
  return(result);
 
9239
  return result;
9261
9240
}
9262
9241
 
9263
9242
 
9292
9271
  if (min_max_ranges.elements > 0)
9293
9272
  {
9294
9273
    if ((result= next_min_in_range()))
9295
 
      return(result);
 
9274
      return result;
9296
9275
  }
9297
9276
  else
9298
9277
  {
9302
9281
      if ((result= file->index_read_map(record, group_prefix,
9303
9282
                                        make_prev_keypart_map(real_key_parts),
9304
9283
                                        HA_READ_KEY_EXACT)))
9305
 
        return(result);
 
9284
        return result;
9306
9285
    }
9307
9286
 
9308
9287
    /*
9343
9322
    If the MIN attribute is non-nullable, this->record already contains the
9344
9323
    MIN key in the group, so just return.
9345
9324
  */
9346
 
  return(result);
 
9325
  return result;
9347
9326
}
9348
9327
 
9349
9328
 
9350
 
/* 
 
9329
/*
9351
9330
  Retrieve the maximal key in the next group.
9352
9331
 
9353
9332
  SYNOPSIS
9374
9353
    result= file->index_read_map(record, group_prefix,
9375
9354
                                 make_prev_keypart_map(real_key_parts),
9376
9355
                                 HA_READ_PREFIX_LAST);
9377
 
  return(result);
 
9356
  return result;
9378
9357
}
9379
9358
 
9380
9359
 
9408
9387
    unsigned char *cur_prefix= seen_first_key ? group_prefix : NULL;
9409
9388
    if ((result= quick_prefix_select->get_next_prefix(group_prefix_len,
9410
9389
                         make_prev_keypart_map(group_key_parts), cur_prefix)))
9411
 
      return(result);
 
9390
      return result;
9412
9391
    seen_first_key= true;
9413
9392
  }
9414
9393
  else
9417
9396
    {
9418
9397
      result= file->index_first(record);
9419
9398
      if (result)
9420
 
        return(result);
 
9399
        return result;
9421
9400
      seen_first_key= true;
9422
9401
    }
9423
9402
    else
9427
9406
                                   make_prev_keypart_map(group_key_parts),
9428
9407
                                   HA_READ_AFTER_KEY);
9429
9408
      if (result)
9430
 
        return(result);
 
9409
        return result;
9431
9410
    }
9432
9411
  }
9433
9412
 
9438
9417
    memcpy(group_prefix + group_prefix_len,
9439
9418
           key_infix, key_infix_len);
9440
9419
 
9441
 
  return(0);
 
9420
  return 0;
9442
9421
}
9443
9422
 
9444
9423
 
9470
9449
  QUICK_RANGE *cur_range;
9471
9450
  bool found_null= false;
9472
9451
  int result= HA_ERR_KEY_NOT_FOUND;
 
9452
  basic_string<unsigned char> max_key;
 
9453
 
 
9454
  max_key.reserve(real_prefix_len + min_max_arg_len);
9473
9455
 
9474
9456
  assert(min_max_ranges.elements > 0);
9475
9457
 
9543
9525
    if ( !(cur_range->flag & NO_MAX_RANGE) )
9544
9526
    {
9545
9527
      /* Compose the MAX key for the range. */
9546
 
      unsigned char *max_key= (unsigned char*) my_alloca(real_prefix_len + min_max_arg_len);
9547
 
      memcpy(max_key, group_prefix, real_prefix_len);
9548
 
      memcpy(max_key + real_prefix_len, cur_range->max_key,
9549
 
             cur_range->max_length);
 
9528
      max_key.clear();
 
9529
      max_key.append(group_prefix, real_prefix_len);
 
9530
      max_key.append(cur_range->max_key, cur_range->max_length);
9550
9531
      /* Compare the found key with max_key. */
9551
 
      int cmp_res= key_cmp(index_info->key_part, max_key,
 
9532
      int cmp_res= key_cmp(index_info->key_part,
 
9533
                           max_key.data(),
9552
9534
                           real_prefix_len + min_max_arg_len);
9553
9535
      if ((!((cur_range->flag & NEAR_MAX) && (cmp_res == -1)) || (cmp_res <= 0)))
9554
9536
      {
9601
9583
  key_part_map keypart_map;
9602
9584
  QUICK_RANGE *cur_range;
9603
9585
  int result;
 
9586
  basic_string<unsigned char> min_key;
 
9587
  min_key.reserve(real_prefix_len + min_max_arg_len);
9604
9588
 
9605
9589
  assert(min_max_ranges.elements > 0);
9606
9590
 
9660
9644
    if ( !(cur_range->flag & NO_MIN_RANGE) )
9661
9645
    {
9662
9646
      /* Compose the MIN key for the range. */
9663
 
      unsigned char *min_key= (unsigned char*) my_alloca(real_prefix_len + min_max_arg_len);
9664
 
      memcpy(min_key, group_prefix, real_prefix_len);
9665
 
      memcpy(min_key + real_prefix_len, cur_range->min_key,
9666
 
             cur_range->min_length);
 
9647
      min_key.clear();
 
9648
      min_key.append(group_prefix, real_prefix_len);
 
9649
      min_key.append(cur_range->min_key, cur_range->min_length);
 
9650
 
9667
9651
      /* Compare the found key with min_key. */
9668
 
      int cmp_res= key_cmp(index_info->key_part, min_key,
 
9652
      int cmp_res= key_cmp(index_info->key_part,
 
9653
                           min_key.data(),
9669
9654
                           real_prefix_len + min_max_arg_len);
9670
9655
      if ((!((cur_range->flag & NEAR_MIN) && (cmp_res == 1)) ||
9671
9656
            (cmp_res >= 0)))
9768
9753
  used_lengths->append(buf, length);
9769
9754
}
9770
9755
 
9771
 
static void print_sel_tree(PARAM *param, SEL_TREE *tree, key_map *tree_map,
9772
 
                           const char *msg __attribute__((unused)))
 
9756
static void print_sel_tree(PARAM *param, SEL_TREE *tree, key_map *tree_map, const char *)
9773
9757
{
9774
9758
  SEL_ARG **key,**end;
9775
9759
  int idx;
9791
9775
  }
9792
9776
  if (!tmp.length())
9793
9777
    tmp.append(STRING_WITH_LEN("(empty)"));
9794
 
 
9795
 
  return;
9796
9778
}
9797
9779
 
9798
9780
 
9799
9781
static void print_ror_scans_arr(Table *table,
9800
 
                                const char *msg __attribute__((unused)),
9801
 
                                struct st_ror_scan_info **start,
 
9782
                                const char *, struct st_ror_scan_info **start,
9802
9783
                                struct st_ror_scan_info **end)
9803
9784
{
9804
9785
  char buff[1024];
9812
9793
  }
9813
9794
  if (!tmp.length())
9814
9795
    tmp.append(STRING_WITH_LEN("(empty)"));
9815
 
  return;
9816
9796
}
9817
9797
 
9818
9798
/*****************************************************************************
9819
 
** Instantiate templates 
 
9799
** Instantiate templates
9820
9800
*****************************************************************************/
9821
9801
 
9822
9802
#ifdef HAVE_EXPLICIT_TEMPLATE_INSTANTIATION