~drizzle-trunk/drizzle/development

« back to all changes in this revision

Viewing changes to drizzled/opt_range.cc

  • Committer: Monty Taylor
  • Date: 2008-08-02 00:06:32 UTC
  • mto: (236.1.42 codestyle)
  • mto: This revision was merged to the branch mainline in revision 261.
  • Revision ID: monty@inaugust.com-20080802000632-jsse0zdd9r6ic5ku
Actually turn gettext on...

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
/* -*- mode: c++; c-basic-offset: 2; indent-tabs-mode: nil; -*-
2
 
 *  vim:expandtab:shiftwidth=2:tabstop=2:smarttab:
3
 
 *
4
 
 *  Copyright (C) 2008-2009 Sun Microsystems
5
 
 *
6
 
 *  This program is free software; you can redistribute it and/or modify
7
 
 *  it under the terms of the GNU General Public License as published by
8
 
 *  the Free Software Foundation; version 2 of the License.
9
 
 *
10
 
 *  This program is distributed in the hope that it will be useful,
11
 
 *  but WITHOUT ANY WARRANTY; without even the implied warranty of
12
 
 *  MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
13
 
 *  GNU General Public License for more details.
14
 
 *
15
 
 *  You should have received a copy of the GNU General Public License
16
 
 *  along with this program; if not, write to the Free Software
17
 
 *  Foundation, Inc., 51 Franklin St, Fifth Floor, Boston, MA  02110-1301  USA
18
 
 */
 
1
/* Copyright (C) 2000-2006 MySQL AB
 
2
 
 
3
   This program is free software; you can redistribute it and/or modify
 
4
   it under the terms of the GNU General Public License as published by
 
5
   the Free Software Foundation; version 2 of the License.
 
6
 
 
7
   This program is distributed in the hope that it will be useful,
 
8
   but WITHOUT ANY WARRANTY; without even the implied warranty of
 
9
   MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
 
10
   GNU General Public License for more details.
 
11
 
 
12
   You should have received a copy of the GNU General Public License
 
13
   along with this program; if not, write to the Free Software
 
14
   Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA */
19
15
 
20
16
/*
21
17
  TODO:
27
23
*/
28
24
 
29
25
/*
30
 
  This cursor contains:
 
26
  This file contains:
31
27
 
32
 
  RangeAnalysisModule
33
 
    A module that accepts a condition, index (or partitioning) description,
34
 
    and builds lists of intervals (in index/partitioning space), such that
35
 
    all possible records that match the condition are contained within the
 
28
  RangeAnalysisModule  
 
29
    A module that accepts a condition, index (or partitioning) description, 
 
30
    and builds lists of intervals (in index/partitioning space), such that 
 
31
    all possible records that match the condition are contained within the 
36
32
    intervals.
37
33
    The entry point for the range analysis module is get_mm_tree() function.
38
 
 
 
34
    
39
35
    The lists are returned in form of complicated structure of interlinked
40
 
    optimizer::SEL_TREE/optimizer::SEL_IMERGE/SEL_ARG objects.
41
 
    See quick_range_seq_next, find_used_partitions for examples of how to walk
 
36
    SEL_TREE/SEL_IMERGE/SEL_ARG objects.
 
37
    See quick_range_seq_next, find_used_partitions for examples of how to walk 
42
38
    this structure.
43
 
    All direct "users" of this module are located within this cursor, too.
44
 
 
45
 
 
46
 
  Range/index_merge/groupby-minmax optimizer module
47
 
    A module that accepts a table, condition, and returns
 
39
    All direct "users" of this module are located within this file, too.
 
40
 
 
41
 
 
42
  PartitionPruningModule
 
43
    A module that accepts a partitioned table, condition, and finds which
 
44
    partitions we will need to use in query execution. Search down for
 
45
    "PartitionPruningModule" for description.
 
46
    The module has single entry point - prune_partitions() function.
 
47
 
 
48
 
 
49
  Range/index_merge/groupby-minmax optimizer module  
 
50
    A module that accepts a table, condition, and returns 
48
51
     - a QUICK_*_SELECT object that can be used to retrieve rows that match
49
 
       the specified condition, or a "no records will match the condition"
 
52
       the specified condition, or a "no records will match the condition" 
50
53
       statement.
51
54
 
52
55
    The module entry points are
59
62
 
60
63
  KeyTupleFormat
61
64
  ~~~~~~~~~~~~~~
62
 
  The code in this cursor (and elsewhere) makes operations on key value tuples.
 
65
  The code in this file (and elsewhere) makes operations on key value tuples.
63
66
  Those tuples are stored in the following format:
64
 
 
 
67
  
65
68
  The tuple is a sequence of key part values. The length of key part value
66
69
  depends only on its type (and not depends on the what value is stored)
67
 
 
 
70
  
68
71
    KeyTuple: keypart1-data, keypart2-data, ...
69
 
 
 
72
  
70
73
  The value of each keypart is stored in the following format:
71
 
 
 
74
  
72
75
    keypart_data: [isnull_byte] keypart-value-bytes
73
76
 
74
77
  If a keypart may have a NULL value (key_part->field->real_maybe_null() can
75
 
  be used to check this), then the first byte is a NULL indicator with the
 
78
  be used to check this), then the first byte is a NULL indicator with the 
76
79
  following valid values:
77
80
    1  - keypart has NULL value.
78
81
    0  - keypart has non-NULL value.
83
86
 
84
87
  keypart-value-bytes holds the value. Its format depends on the field type.
85
88
  The length of keypart-value-bytes may or may not depend on the value being
86
 
  stored. The default is that length is static and equal to
87
 
  KeyPartInfo::length.
88
 
 
89
 
  Key parts with (key_part_flag & HA_BLOB_PART) have length depending of the
 
89
  stored. The default is that length is static and equal to 
 
90
  KEY_PART_INFO::length.
 
91
  
 
92
  Key parts with (key_part_flag & HA_BLOB_PART) have length depending of the 
90
93
  value:
91
 
 
 
94
  
92
95
     keypart-value-bytes: value_length value_bytes
93
96
 
94
97
  The value_length part itself occupies HA_KEY_BLOB_LENGTH=2 bytes.
96
99
  See key_copy() and key_restore() for code to move data between index tuple
97
100
  and table record
98
101
 
99
 
  CAUTION: the above description is only sergefp's understanding of the
 
102
  CAUTION: the above description is only sergefp's understanding of the 
100
103
           subject and may omit some details.
101
104
*/
102
105
 
103
 
#include "config.h"
104
 
 
105
 
#include <math.h>
106
 
#include <float.h>
107
 
 
108
 
#include <string>
109
 
#include <vector>
110
 
#include <algorithm>
111
 
 
112
 
#include "drizzled/sql_base.h"
113
 
#include "drizzled/sql_select.h"
114
 
#include "drizzled/error.h"
115
 
#include "drizzled/optimizer/cost_vector.h"
116
 
#include "drizzled/item/cmpfunc.h"
117
 
#include "drizzled/field/num.h"
118
 
#include "drizzled/check_stack_overrun.h"
119
 
#include "drizzled/optimizer/sum.h"
120
 
#include "drizzled/optimizer/range.h"
121
 
#include "drizzled/optimizer/quick_range.h"
122
 
#include "drizzled/optimizer/quick_range_select.h"
123
 
#include "drizzled/optimizer/quick_group_min_max_select.h"
124
 
#include "drizzled/optimizer/quick_index_merge_select.h"
125
 
#include "drizzled/optimizer/quick_ror_intersect_select.h"
126
 
#include "drizzled/optimizer/quick_ror_union_select.h"
127
 
#include "drizzled/optimizer/table_read_plan.h"
128
 
#include "drizzled/optimizer/sel_arg.h"
129
 
#include "drizzled/optimizer/sel_imerge.h"
130
 
#include "drizzled/optimizer/sel_tree.h"
131
 
#include "drizzled/optimizer/range_param.h"
132
 
#include "drizzled/records.h"
133
 
#include "drizzled/internal/my_sys.h"
134
 
#include "drizzled/internal/iocache.h"
135
 
 
136
 
#include "drizzled/temporal.h" /* Needed in get_mm_leaf() for timestamp -> datetime comparisons */
137
 
 
138
 
using namespace std;
139
 
namespace drizzled
140
 
{
141
 
 
142
 
#define HA_END_SPACE_KEY 0
 
106
#ifdef USE_PRAGMA_IMPLEMENTATION
 
107
#pragma implementation                          // gcc: Class implementation
 
108
#endif
 
109
 
 
110
#include "mysql_priv.h"
 
111
#include "sql_select.h"
 
112
 
 
113
#ifndef EXTRA_DEBUG
 
114
#define test_rb_tree(A,B) {}
 
115
#define test_use_count(A) {}
 
116
#endif
143
117
 
144
118
/*
145
119
  Convert double value to #rows. Currently this does floor(), and we
146
120
  might consider using round() instead.
147
121
*/
148
 
static inline ha_rows double2rows(double x)
149
 
{
150
 
    return static_cast<ha_rows>(x);
151
 
}
152
 
 
153
 
static unsigned char is_null_string[2]= {1,0};
154
 
 
155
 
 
156
 
/**
157
 
  Get cost of reading nrows table records in a "disk sweep"
158
 
 
159
 
  A disk sweep read is a sequence of Cursor->rnd_pos(rowid) calls that made
160
 
  for an ordered sequence of rowids.
161
 
 
162
 
  We assume hard disk IO. The read is performed as follows:
163
 
 
164
 
   1. The disk head is moved to the needed cylinder
165
 
   2. The controller waits for the plate to rotate
166
 
   3. The data is transferred
167
 
 
168
 
  Time to do #3 is insignificant compared to #2+#1.
169
 
 
170
 
  Time to move the disk head is proportional to head travel distance.
171
 
 
172
 
  Time to wait for the plate to rotate depends on whether the disk head
173
 
  was moved or not.
174
 
 
175
 
  If disk head wasn't moved, the wait time is proportional to distance
176
 
  between the previous block and the block we're reading.
177
 
 
178
 
  If the head was moved, we don't know how much we'll need to wait for the
179
 
  plate to rotate. We assume the wait time to be a variate with a mean of
180
 
  0.5 of full rotation time.
181
 
 
182
 
  Our cost units are "random disk seeks". The cost of random disk seek is
183
 
  actually not a constant, it depends one range of cylinders we're going
184
 
  to access. We make it constant by introducing a fuzzy concept of "typical
185
 
  datafile length" (it's fuzzy as it's hard to tell whether it should
186
 
  include index cursor, temp.tables etc). Then random seek cost is:
187
 
 
188
 
    1 = half_rotation_cost + move_cost * 1/3 * typical_data_file_length
189
 
 
190
 
  We define half_rotation_cost as DISK_SEEK_BASE_COST=0.9.
191
 
 
192
 
  @param table             Table to be accessed
193
 
  @param nrows             Number of rows to retrieve
194
 
  @param interrupted       true <=> Assume that the disk sweep will be
195
 
                           interrupted by other disk IO. false - otherwise.
196
 
  @param cost         OUT  The cost.
 
122
#define double2rows(x) ((ha_rows)(x))
 
123
 
 
124
static int sel_cmp(Field *f,uchar *a,uchar *b,uint8_t a_flag,uint8_t b_flag);
 
125
 
 
126
static uchar is_null_string[2]= {1,0};
 
127
 
 
128
class RANGE_OPT_PARAM;
 
129
/*
 
130
  A construction block of the SEL_ARG-graph.
 
131
  
 
132
  The following description only covers graphs of SEL_ARG objects with 
 
133
  sel_arg->type==KEY_RANGE:
 
134
 
 
135
  One SEL_ARG object represents an "elementary interval" in form
 
136
  
 
137
      min_value <=?  table.keypartX  <=? max_value
 
138
  
 
139
  The interval is a non-empty interval of any kind: with[out] minimum/maximum
 
140
  bound, [half]open/closed, single-point interval, etc.
 
141
 
 
142
  1. SEL_ARG GRAPH STRUCTURE
 
143
  
 
144
  SEL_ARG objects are linked together in a graph. The meaning of the graph
 
145
  is better demostrated by an example:
 
146
  
 
147
     tree->keys[i]
 
148
      | 
 
149
      |             $              $
 
150
      |    part=1   $     part=2   $    part=3
 
151
      |             $              $
 
152
      |  +-------+  $   +-------+  $   +--------+
 
153
      |  | kp1<1 |--$-->| kp2=5 |--$-->| kp3=10 |
 
154
      |  +-------+  $   +-------+  $   +--------+
 
155
      |      |      $              $       |
 
156
      |      |      $              $   +--------+
 
157
      |      |      $              $   | kp3=12 | 
 
158
      |      |      $              $   +--------+ 
 
159
      |  +-------+  $              $   
 
160
      \->| kp1=2 |--$--------------$-+ 
 
161
         +-------+  $              $ |   +--------+
 
162
             |      $              $  ==>| kp3=11 |
 
163
         +-------+  $              $ |   +--------+
 
164
         | kp1=3 |--$--------------$-+       |
 
165
         +-------+  $              $     +--------+
 
166
             |      $              $     | kp3=14 |
 
167
            ...     $              $     +--------+
 
168
 
 
169
  The entire graph is partitioned into "interval lists".
 
170
 
 
171
  An interval list is a sequence of ordered disjoint intervals over the same
 
172
  key part. SEL_ARG are linked via "next" and "prev" pointers. Additionally,
 
173
  all intervals in the list form an RB-tree, linked via left/right/parent 
 
174
  pointers. The RB-tree root SEL_ARG object will be further called "root of the
 
175
  interval list".
 
176
  
 
177
    In the example pic, there are 4 interval lists: 
 
178
    "kp<1 OR kp1=2 OR kp1=3", "kp2=5", "kp3=10 OR kp3=12", "kp3=11 OR kp3=13".
 
179
    The vertical lines represent SEL_ARG::next/prev pointers.
 
180
    
 
181
  In an interval list, each member X may have SEL_ARG::next_key_part pointer
 
182
  pointing to the root of another interval list Y. The pointed interval list
 
183
  must cover a key part with greater number (i.e. Y->part > X->part).
 
184
    
 
185
    In the example pic, the next_key_part pointers are represented by
 
186
    horisontal lines.
 
187
 
 
188
  2. SEL_ARG GRAPH SEMANTICS
 
189
 
 
190
  It represents a condition in a special form (we don't have a name for it ATM)
 
191
  The SEL_ARG::next/prev is "OR", and next_key_part is "AND".
 
192
  
 
193
  For example, the picture represents the condition in form:
 
194
   (kp1 < 1 AND kp2=5 AND (kp3=10 OR kp3=12)) OR 
 
195
   (kp1=2 AND (kp3=11 OR kp3=14)) OR 
 
196
   (kp1=3 AND (kp3=11 OR kp3=14))
 
197
 
 
198
 
 
199
  3. SEL_ARG GRAPH USE
 
200
 
 
201
  Use get_mm_tree() to construct SEL_ARG graph from WHERE condition.
 
202
  Then walk the SEL_ARG graph and get a list of dijsoint ordered key
 
203
  intervals (i.e. intervals in form
 
204
  
 
205
   (constA1, .., const1_K) < (keypart1,.., keypartK) < (constB1, .., constB_K)
 
206
 
 
207
  Those intervals can be used to access the index. The uses are in:
 
208
   - check_quick_select() - Walk the SEL_ARG graph and find an estimate of
 
209
                            how many table records are contained within all
 
210
                            intervals.
 
211
   - get_quick_select()   - Walk the SEL_ARG, materialize the key intervals,
 
212
                            and create QUICK_RANGE_SELECT object that will
 
213
                            read records within these intervals.
 
214
 
 
215
  4. SPACE COMPLEXITY NOTES 
 
216
 
 
217
    SEL_ARG graph is a representation of an ordered disjoint sequence of
 
218
    intervals over the ordered set of index tuple values.
 
219
 
 
220
    For multi-part keys, one can construct a WHERE expression such that its
 
221
    list of intervals will be of combinatorial size. Here is an example:
 
222
     
 
223
      (keypart1 IN (1,2, ..., n1)) AND 
 
224
      (keypart2 IN (1,2, ..., n2)) AND 
 
225
      (keypart3 IN (1,2, ..., n3))
 
226
    
 
227
    For this WHERE clause the list of intervals will have n1*n2*n3 intervals
 
228
    of form
 
229
     
 
230
      (keypart1, keypart2, keypart3) = (k1, k2, k3), where 1 <= k{i} <= n{i}
 
231
    
 
232
    SEL_ARG graph structure aims to reduce the amount of required space by
 
233
    "sharing" the elementary intervals when possible (the pic at the
 
234
    beginning of this comment has examples of such sharing). The sharing may 
 
235
    prevent combinatorial blowup:
 
236
 
 
237
      There are WHERE clauses that have combinatorial-size interval lists but
 
238
      will be represented by a compact SEL_ARG graph.
 
239
      Example:
 
240
        (keypartN IN (1,2, ..., n1)) AND 
 
241
        ...
 
242
        (keypart2 IN (1,2, ..., n2)) AND 
 
243
        (keypart1 IN (1,2, ..., n3))
 
244
 
 
245
    but not in all cases:
 
246
 
 
247
    - There are WHERE clauses that do have a compact SEL_ARG-graph
 
248
      representation but get_mm_tree() and its callees will construct a
 
249
      graph of combinatorial size.
 
250
      Example:
 
251
        (keypart1 IN (1,2, ..., n1)) AND 
 
252
        (keypart2 IN (1,2, ..., n2)) AND 
 
253
        ...
 
254
        (keypartN IN (1,2, ..., n3))
 
255
 
 
256
    - There are WHERE clauses for which the minimal possible SEL_ARG graph
 
257
      representation will have combinatorial size.
 
258
      Example:
 
259
        By induction: Let's take any interval on some keypart in the middle:
 
260
 
 
261
           kp15=c0
 
262
        
 
263
        Then let's AND it with this interval 'structure' from preceding and
 
264
        following keyparts:
 
265
 
 
266
          (kp14=c1 AND kp16=c3) OR keypart14=c2) (*)
 
267
        
 
268
        We will obtain this SEL_ARG graph:
 
269
 
 
270
             kp14     $      kp15      $      kp16
 
271
                      $                $
 
272
         +---------+  $   +---------+  $   +---------+
 
273
         | kp14=c1 |--$-->| kp15=c0 |--$-->| kp16=c3 |
 
274
         +---------+  $   +---------+  $   +---------+
 
275
              |       $                $              
 
276
         +---------+  $   +---------+  $             
 
277
         | kp14=c2 |--$-->| kp15=c0 |  $             
 
278
         +---------+  $   +---------+  $             
 
279
                      $                $
 
280
                      
 
281
       Note that we had to duplicate "kp15=c0" and there was no way to avoid
 
282
       that. 
 
283
       The induction step: AND the obtained expression with another "wrapping"
 
284
       expression like (*).
 
285
       When the process ends because of the limit on max. number of keyparts 
 
286
       we'll have:
 
287
 
 
288
         WHERE clause length  is O(3*#max_keyparts)
 
289
         SEL_ARG graph size   is O(2^(#max_keyparts/2))
 
290
 
 
291
       (it is also possible to construct a case where instead of 2 in 2^n we
 
292
        have a bigger constant, e.g. 4, and get a graph with 4^(31/2)= 2^31
 
293
        nodes)
 
294
 
 
295
    We avoid consuming too much memory by setting a limit on the number of
 
296
    SEL_ARG object we can construct during one range analysis invocation.
197
297
*/
198
298
 
199
 
static void get_sweep_read_cost(Table *table,
200
 
                                ha_rows nrows,
201
 
                                bool interrupted,
202
 
                                optimizer::CostVector *cost)
203
 
{
204
 
  cost->zero();
205
 
  if (table->cursor->primary_key_is_clustered())
206
 
  {
207
 
    cost->setIOCount(table->cursor->read_time(table->getShare()->getPrimaryKey(),
208
 
                                             static_cast<uint32_t>(nrows),
209
 
                                             nrows));
210
 
  }
211
 
  else
212
 
  {
213
 
    double n_blocks=
214
 
      ceil(uint64_t2double(table->cursor->stats.data_file_length) / IO_SIZE);
215
 
    double busy_blocks=
216
 
      n_blocks * (1.0 - pow(1.0 - 1.0/n_blocks, rows2double(nrows)));
217
 
    if (busy_blocks < 1.0)
218
 
      busy_blocks= 1.0;
219
 
 
220
 
    cost->setIOCount(busy_blocks);
221
 
 
222
 
    if (! interrupted)
223
 
    {
224
 
      /* Assume reading is done in one 'sweep' */
225
 
      cost->setAvgIOCost((DISK_SEEK_BASE_COST +
226
 
                          DISK_SEEK_PROP_COST*n_blocks/busy_blocks));
227
 
    }
228
 
  }
229
 
}
 
299
class SEL_ARG :public Sql_alloc
 
300
{
 
301
public:
 
302
  uint8_t min_flag,max_flag,maybe_flag;
 
303
  uint8_t part;                                 // Which key part
 
304
  uint8_t maybe_null;
 
305
  /* 
 
306
    Number of children of this element in the RB-tree, plus 1 for this
 
307
    element itself.
 
308
  */
 
309
  uint16_t elements;
 
310
  /*
 
311
    Valid only for elements which are RB-tree roots: Number of times this
 
312
    RB-tree is referred to (it is referred by SEL_ARG::next_key_part or by
 
313
    SEL_TREE::keys[i] or by a temporary SEL_ARG* variable)
 
314
  */
 
315
  ulong use_count;
 
316
 
 
317
  Field *field;
 
318
  uchar *min_value,*max_value;                  // Pointer to range
 
319
 
 
320
  /*
 
321
    eq_tree() requires that left == right == 0 if the type is MAYBE_KEY.
 
322
   */
 
323
  SEL_ARG *left,*right;   /* R-B tree children */
 
324
  SEL_ARG *next,*prev;    /* Links for bi-directional interval list */
 
325
  SEL_ARG *parent;        /* R-B tree parent */
 
326
  SEL_ARG *next_key_part; 
 
327
  enum leaf_color { BLACK,RED } color;
 
328
  enum Type { IMPOSSIBLE, MAYBE, MAYBE_KEY, KEY_RANGE } type;
 
329
 
 
330
  enum { MAX_SEL_ARGS = 16000 };
 
331
 
 
332
  SEL_ARG() {}
 
333
  SEL_ARG(SEL_ARG &);
 
334
  SEL_ARG(Field *,const uchar *, const uchar *);
 
335
  SEL_ARG(Field *field, uint8_t part, uchar *min_value, uchar *max_value,
 
336
          uint8_t min_flag, uint8_t max_flag, uint8_t maybe_flag);
 
337
  SEL_ARG(enum Type type_arg)
 
338
    :min_flag(0),elements(1),use_count(1),left(0),right(0),next_key_part(0),
 
339
    color(BLACK), type(type_arg)
 
340
  {}
 
341
  inline bool is_same(SEL_ARG *arg)
 
342
  {
 
343
    if (type != arg->type || part != arg->part)
 
344
      return 0;
 
345
    if (type != KEY_RANGE)
 
346
      return 1;
 
347
    return cmp_min_to_min(arg) == 0 && cmp_max_to_max(arg) == 0;
 
348
  }
 
349
  inline void merge_flags(SEL_ARG *arg) { maybe_flag|=arg->maybe_flag; }
 
350
  inline void maybe_smaller() { maybe_flag=1; }
 
351
  /* Return true iff it's a single-point null interval */
 
352
  inline bool is_null_interval() { return maybe_null && max_value[0] == 1; } 
 
353
  inline int cmp_min_to_min(SEL_ARG* arg)
 
354
  {
 
355
    return sel_cmp(field,min_value, arg->min_value, min_flag, arg->min_flag);
 
356
  }
 
357
  inline int cmp_min_to_max(SEL_ARG* arg)
 
358
  {
 
359
    return sel_cmp(field,min_value, arg->max_value, min_flag, arg->max_flag);
 
360
  }
 
361
  inline int cmp_max_to_max(SEL_ARG* arg)
 
362
  {
 
363
    return sel_cmp(field,max_value, arg->max_value, max_flag, arg->max_flag);
 
364
  }
 
365
  inline int cmp_max_to_min(SEL_ARG* arg)
 
366
  {
 
367
    return sel_cmp(field,max_value, arg->min_value, max_flag, arg->min_flag);
 
368
  }
 
369
  SEL_ARG *clone_and(SEL_ARG* arg)
 
370
  {                                             // Get overlapping range
 
371
    uchar *new_min,*new_max;
 
372
    uint8_t flag_min,flag_max;
 
373
    if (cmp_min_to_min(arg) >= 0)
 
374
    {
 
375
      new_min=min_value; flag_min=min_flag;
 
376
    }
 
377
    else
 
378
    {
 
379
      new_min=arg->min_value; flag_min=arg->min_flag; /* purecov: deadcode */
 
380
    }
 
381
    if (cmp_max_to_max(arg) <= 0)
 
382
    {
 
383
      new_max=max_value; flag_max=max_flag;
 
384
    }
 
385
    else
 
386
    {
 
387
      new_max=arg->max_value; flag_max=arg->max_flag;
 
388
    }
 
389
    return new SEL_ARG(field, part, new_min, new_max, flag_min, flag_max,
 
390
                       test(maybe_flag && arg->maybe_flag));
 
391
  }
 
392
  SEL_ARG *clone_first(SEL_ARG *arg)
 
393
  {                                             // min <= X < arg->min
 
394
    return new SEL_ARG(field,part, min_value, arg->min_value,
 
395
                       min_flag, arg->min_flag & NEAR_MIN ? 0 : NEAR_MAX,
 
396
                       maybe_flag | arg->maybe_flag);
 
397
  }
 
398
  SEL_ARG *clone_last(SEL_ARG *arg)
 
399
  {                                             // min <= X <= key_max
 
400
    return new SEL_ARG(field, part, min_value, arg->max_value,
 
401
                       min_flag, arg->max_flag, maybe_flag | arg->maybe_flag);
 
402
  }
 
403
  SEL_ARG *clone(RANGE_OPT_PARAM *param, SEL_ARG *new_parent, SEL_ARG **next);
 
404
 
 
405
  bool copy_min(SEL_ARG* arg)
 
406
  {                                             // Get overlapping range
 
407
    if (cmp_min_to_min(arg) > 0)
 
408
    {
 
409
      min_value=arg->min_value; min_flag=arg->min_flag;
 
410
      if ((max_flag & (NO_MAX_RANGE | NO_MIN_RANGE)) ==
 
411
          (NO_MAX_RANGE | NO_MIN_RANGE))
 
412
        return 1;                               // Full range
 
413
    }
 
414
    maybe_flag|=arg->maybe_flag;
 
415
    return 0;
 
416
  }
 
417
  bool copy_max(SEL_ARG* arg)
 
418
  {                                             // Get overlapping range
 
419
    if (cmp_max_to_max(arg) <= 0)
 
420
    {
 
421
      max_value=arg->max_value; max_flag=arg->max_flag;
 
422
      if ((max_flag & (NO_MAX_RANGE | NO_MIN_RANGE)) ==
 
423
          (NO_MAX_RANGE | NO_MIN_RANGE))
 
424
        return 1;                               // Full range
 
425
    }
 
426
    maybe_flag|=arg->maybe_flag;
 
427
    return 0;
 
428
  }
 
429
 
 
430
  void copy_min_to_min(SEL_ARG *arg)
 
431
  {
 
432
    min_value=arg->min_value; min_flag=arg->min_flag;
 
433
  }
 
434
  void copy_min_to_max(SEL_ARG *arg)
 
435
  {
 
436
    max_value=arg->min_value;
 
437
    max_flag=arg->min_flag & NEAR_MIN ? 0 : NEAR_MAX;
 
438
  }
 
439
  void copy_max_to_min(SEL_ARG *arg)
 
440
  {
 
441
    min_value=arg->max_value;
 
442
    min_flag=arg->max_flag & NEAR_MAX ? 0 : NEAR_MIN;
 
443
  }
 
444
  /* returns a number of keypart values (0 or 1) appended to the key buffer */
 
445
  int store_min(uint length, uchar **min_key,uint min_key_flag)
 
446
  {
 
447
    /* "(kp1 > c1) AND (kp2 OP c2) AND ..." -> (kp1 > c1) */
 
448
    if ((!(min_flag & NO_MIN_RANGE) &&
 
449
        !(min_key_flag & (NO_MIN_RANGE | NEAR_MIN))))
 
450
    {
 
451
      if (maybe_null && *min_value)
 
452
      {
 
453
        **min_key=1;
 
454
        memset(*min_key+1, 0, length-1);
 
455
      }
 
456
      else
 
457
        memcpy(*min_key,min_value,length);
 
458
      (*min_key)+= length;
 
459
      return 1;
 
460
    }
 
461
    return 0;
 
462
  }
 
463
  /* returns a number of keypart values (0 or 1) appended to the key buffer */
 
464
  int store_max(uint length, uchar **max_key, uint max_key_flag)
 
465
  {
 
466
    if (!(max_flag & NO_MAX_RANGE) &&
 
467
        !(max_key_flag & (NO_MAX_RANGE | NEAR_MAX)))
 
468
    {
 
469
      if (maybe_null && *max_value)
 
470
      {
 
471
        **max_key=1;
 
472
        memset(*max_key+1, 0, length-1);
 
473
      }
 
474
      else
 
475
        memcpy(*max_key,max_value,length);
 
476
      (*max_key)+= length;
 
477
      return 1;
 
478
    }
 
479
    return 0;
 
480
  }
 
481
 
 
482
  /* returns a number of keypart values appended to the key buffer */
 
483
  int store_min_key(KEY_PART *key, uchar **range_key, uint *range_key_flag)
 
484
  {
 
485
    SEL_ARG *key_tree= first();
 
486
    uint res= key_tree->store_min(key[key_tree->part].store_length,
 
487
                                  range_key, *range_key_flag);
 
488
    *range_key_flag|= key_tree->min_flag;
 
489
    
 
490
    if (key_tree->next_key_part &&
 
491
        key_tree->next_key_part->part == key_tree->part+1 &&
 
492
        !(*range_key_flag & (NO_MIN_RANGE | NEAR_MIN)) &&
 
493
        key_tree->next_key_part->type == SEL_ARG::KEY_RANGE)
 
494
      res+= key_tree->next_key_part->store_min_key(key, range_key,
 
495
                                                   range_key_flag);
 
496
    return res;
 
497
  }
 
498
 
 
499
  /* returns a number of keypart values appended to the key buffer */
 
500
  int store_max_key(KEY_PART *key, uchar **range_key, uint *range_key_flag)
 
501
  {
 
502
    SEL_ARG *key_tree= last();
 
503
    uint res=key_tree->store_max(key[key_tree->part].store_length,
 
504
                                 range_key, *range_key_flag);
 
505
    (*range_key_flag)|= key_tree->max_flag;
 
506
    if (key_tree->next_key_part &&
 
507
        key_tree->next_key_part->part == key_tree->part+1 &&
 
508
        !(*range_key_flag & (NO_MAX_RANGE | NEAR_MAX)) &&
 
509
        key_tree->next_key_part->type == SEL_ARG::KEY_RANGE)
 
510
      res+= key_tree->next_key_part->store_max_key(key, range_key,
 
511
                                                   range_key_flag);
 
512
    return res;
 
513
  }
 
514
 
 
515
  SEL_ARG *insert(SEL_ARG *key);
 
516
  SEL_ARG *tree_delete(SEL_ARG *key);
 
517
  SEL_ARG *find_range(SEL_ARG *key);
 
518
  SEL_ARG *rb_insert(SEL_ARG *leaf);
 
519
  friend SEL_ARG *rb_delete_fixup(SEL_ARG *root,SEL_ARG *key, SEL_ARG *par);
 
520
#ifdef EXTRA_DEBUG
 
521
  friend int test_rb_tree(SEL_ARG *element,SEL_ARG *parent);
 
522
  void test_use_count(SEL_ARG *root);
 
523
#endif
 
524
  SEL_ARG *first();
 
525
  SEL_ARG *last();
 
526
  void make_root();
 
527
  inline bool simple_key()
 
528
  {
 
529
    return !next_key_part && elements == 1;
 
530
  }
 
531
  void increment_use_count(long count)
 
532
  {
 
533
    if (next_key_part)
 
534
    {
 
535
      next_key_part->use_count+=count;
 
536
      count*= (next_key_part->use_count-count);
 
537
      for (SEL_ARG *pos=next_key_part->first(); pos ; pos=pos->next)
 
538
        if (pos->next_key_part)
 
539
          pos->increment_use_count(count);
 
540
    }
 
541
  }
 
542
  void free_tree()
 
543
  {
 
544
    for (SEL_ARG *pos=first(); pos ; pos=pos->next)
 
545
      if (pos->next_key_part)
 
546
      {
 
547
        pos->next_key_part->use_count--;
 
548
        pos->next_key_part->free_tree();
 
549
      }
 
550
  }
 
551
 
 
552
  inline SEL_ARG **parent_ptr()
 
553
  {
 
554
    return parent->left == this ? &parent->left : &parent->right;
 
555
  }
 
556
 
 
557
 
 
558
  /*
 
559
    Check if this SEL_ARG object represents a single-point interval
 
560
 
 
561
    SYNOPSIS
 
562
      is_singlepoint()
 
563
    
 
564
    DESCRIPTION
 
565
      Check if this SEL_ARG object (not tree) represents a single-point
 
566
      interval, i.e. if it represents a "keypart = const" or 
 
567
      "keypart IS NULL".
 
568
 
 
569
    RETURN
 
570
      true   This SEL_ARG object represents a singlepoint interval
 
571
      false  Otherwise
 
572
  */
 
573
 
 
574
  bool is_singlepoint()
 
575
  {
 
576
    /* 
 
577
      Check for NEAR_MIN ("strictly less") and NO_MIN_RANGE (-inf < field) 
 
578
      flags, and the same for right edge.
 
579
    */
 
580
    if (min_flag || max_flag)
 
581
      return false;
 
582
    uchar *min_val= min_value;
 
583
    uchar *max_val= max_value;
 
584
 
 
585
    if (maybe_null)
 
586
    {
 
587
      /* First byte is a NULL value indicator */
 
588
      if (*min_val != *max_val)
 
589
        return false;
 
590
 
 
591
      if (*min_val)
 
592
        return true; /* This "x IS NULL" */
 
593
      min_val++;
 
594
      max_val++;
 
595
    }
 
596
    return !field->key_cmp(min_val, max_val);
 
597
  }
 
598
  SEL_ARG *clone_tree(RANGE_OPT_PARAM *param);
 
599
};
 
600
 
 
601
class SEL_IMERGE;
 
602
 
 
603
 
 
604
class SEL_TREE :public Sql_alloc
 
605
{
 
606
public:
 
607
  /*
 
608
    Starting an effort to document this field:
 
609
    (for some i, keys[i]->type == SEL_ARG::IMPOSSIBLE) => 
 
610
       (type == SEL_TREE::IMPOSSIBLE)
 
611
  */
 
612
  enum Type { IMPOSSIBLE, ALWAYS, MAYBE, KEY, KEY_SMALLER } type;
 
613
  SEL_TREE(enum Type type_arg) :type(type_arg) {}
 
614
  SEL_TREE() :type(KEY)
 
615
  {
 
616
    keys_map.clear_all();
 
617
    memset((char*) keys, 0, sizeof(keys));
 
618
  }
 
619
  /*
 
620
    Note: there may exist SEL_TREE objects with sel_tree->type=KEY and
 
621
    keys[i]=0 for all i. (SergeyP: it is not clear whether there is any
 
622
    merit in range analyzer functions (e.g. get_mm_parts) returning a
 
623
    pointer to such SEL_TREE instead of NULL)
 
624
  */
 
625
  SEL_ARG *keys[MAX_KEY];
 
626
  key_map keys_map;        /* bitmask of non-NULL elements in keys */
 
627
 
 
628
  /*
 
629
    Possible ways to read rows using index_merge. The list is non-empty only
 
630
    if type==KEY. Currently can be non empty only if keys_map.is_clear_all().
 
631
  */
 
632
  List<SEL_IMERGE> merges;
 
633
 
 
634
  /* The members below are filled/used only after get_mm_tree is done */
 
635
  key_map ror_scans_map;   /* bitmask of ROR scan-able elements in keys */
 
636
  uint    n_ror_scans;     /* number of set bits in ror_scans_map */
 
637
 
 
638
  struct st_ror_scan_info **ror_scans;     /* list of ROR key scans */
 
639
  struct st_ror_scan_info **ror_scans_end; /* last ROR scan */
 
640
  /* Note that #records for each key scan is stored in table->quick_rows */
 
641
};
 
642
 
 
643
class RANGE_OPT_PARAM
 
644
{
 
645
public:
 
646
  THD   *thd;   /* Current thread handle */
 
647
  TABLE *table; /* Table being analyzed */
 
648
  COND *cond;   /* Used inside get_mm_tree(). */
 
649
  table_map prev_tables;
 
650
  table_map read_tables;
 
651
  table_map current_table; /* Bit of the table being analyzed */
 
652
 
 
653
  /* Array of parts of all keys for which range analysis is performed */
 
654
  KEY_PART *key_parts;
 
655
  KEY_PART *key_parts_end;
 
656
  MEM_ROOT *mem_root; /* Memory that will be freed when range analysis completes */
 
657
  MEM_ROOT *old_root; /* Memory that will last until the query end */
 
658
  /*
 
659
    Number of indexes used in range analysis (In SEL_TREE::keys only first
 
660
    #keys elements are not empty)
 
661
  */
 
662
  uint keys;
 
663
  
 
664
  /* 
 
665
    If true, the index descriptions describe real indexes (and it is ok to
 
666
    call field->optimize_range(real_keynr[...], ...).
 
667
    Otherwise index description describes fake indexes.
 
668
  */
 
669
  bool using_real_indexes;
 
670
  
 
671
  bool remove_jump_scans;
 
672
  
 
673
  /*
 
674
    used_key_no -> table_key_no translation table. Only makes sense if
 
675
    using_real_indexes==true
 
676
  */
 
677
  uint real_keynr[MAX_KEY];
 
678
  /* Number of SEL_ARG objects allocated by SEL_ARG::clone_tree operations */
 
679
  uint alloced_sel_args; 
 
680
  bool force_default_mrr;
 
681
};
 
682
 
 
683
class PARAM : public RANGE_OPT_PARAM
 
684
{
 
685
public:
 
686
  KEY_PART *key[MAX_KEY]; /* First key parts of keys used in the query */
 
687
  int64_t baseflag;
 
688
  uint max_key_part;
 
689
  /* Number of ranges in the last checked tree->key */
 
690
  uint range_count;
 
691
  uchar min_key[MAX_KEY_LENGTH+MAX_FIELD_WIDTH],
 
692
    max_key[MAX_KEY_LENGTH+MAX_FIELD_WIDTH];
 
693
  bool quick;                           // Don't calulate possible keys
 
694
 
 
695
  uint fields_bitmap_size;
 
696
  MY_BITMAP needed_fields;    /* bitmask of fields needed by the query */
 
697
  MY_BITMAP tmp_covered_fields;
 
698
 
 
699
  key_map *needed_reg;        /* ptr to SQL_SELECT::needed_reg */
 
700
 
 
701
  uint *imerge_cost_buff;     /* buffer for index_merge cost estimates */
 
702
  uint imerge_cost_buff_size; /* size of the buffer */
 
703
 
 
704
  /* true if last checked tree->key can be used for ROR-scan */
 
705
  bool is_ror_scan;
 
706
  /* Number of ranges in the last checked tree->key */
 
707
  uint n_ranges;
 
708
};
 
709
 
 
710
class TABLE_READ_PLAN;
 
711
  class TRP_RANGE;
 
712
  class TRP_ROR_INTERSECT;
 
713
  class TRP_ROR_UNION;
 
714
  class TRP_ROR_INDEX_MERGE;
 
715
  class TRP_GROUP_MIN_MAX;
230
716
 
231
717
struct st_ror_scan_info;
232
718
 
233
 
static optimizer::SEL_TREE * get_mm_parts(optimizer::RangeParameter *param,
234
 
                               COND *cond_func,
235
 
                               Field *field,
236
 
                                                 Item_func::Functype type,
237
 
                               Item *value,
238
 
                                                 Item_result cmp_type);
239
 
 
240
 
static optimizer::SEL_ARG *get_mm_leaf(optimizer::RangeParameter *param,
241
 
                                       COND *cond_func,
242
 
                                       Field *field,
243
 
                                       KEY_PART *key_part,
244
 
                                                         Item_func::Functype type,
245
 
                                       Item *value);
246
 
 
247
 
static optimizer::SEL_TREE *get_mm_tree(optimizer::RangeParameter *param, COND *cond);
248
 
 
249
 
static bool is_key_scan_ror(optimizer::Parameter *param, uint32_t keynr, uint8_t nparts);
250
 
 
251
 
static ha_rows check_quick_select(Session *session,
252
 
                                  optimizer::Parameter *param,
253
 
                                  uint32_t idx,
254
 
                                  bool index_only,
255
 
                                  optimizer::SEL_ARG *tree,
256
 
                                  bool update_tbl_stats,
257
 
                                  uint32_t *mrr_flags,
258
 
                                  uint32_t *bufsize,
259
 
                                  optimizer::CostVector *cost);
260
 
 
261
 
static optimizer::RangeReadPlan *get_key_scans_params(Session *session,
262
 
                                                      optimizer::Parameter *param,
263
 
                                                      optimizer::SEL_TREE *tree,
264
 
                                                      bool index_read_must_be_used,
265
 
                                                      bool update_tbl_stats,
266
 
                                                      double read_time);
267
 
 
268
 
static
269
 
optimizer::RorIntersectReadPlan *get_best_ror_intersect(const optimizer::Parameter *param,
270
 
                                                        optimizer::SEL_TREE *tree,
271
 
                                                        double read_time,
272
 
                                                        bool *are_all_covering);
273
 
 
274
 
static
275
 
optimizer::RorIntersectReadPlan *get_best_covering_ror_intersect(optimizer::Parameter *param,
276
 
                                                                 optimizer::SEL_TREE *tree,
277
 
                                                                 double read_time);
278
 
 
279
 
static
280
 
optimizer::TableReadPlan *get_best_disjunct_quick(Session *session,
281
 
                                                  optimizer::Parameter *param,
282
 
                                                  optimizer::SEL_IMERGE *imerge,
283
 
                                                  double read_time);
284
 
 
285
 
static
286
 
optimizer::GroupMinMaxReadPlan *get_best_group_min_max(optimizer::Parameter *param, optimizer::SEL_TREE *tree);
287
 
 
288
 
static optimizer::SEL_TREE *tree_and(optimizer::RangeParameter *param, 
289
 
                                     optimizer::SEL_TREE *tree1, 
290
 
                                     optimizer::SEL_TREE *tree2);
291
 
 
292
 
static optimizer::SEL_ARG *sel_add(optimizer::SEL_ARG *key1, optimizer::SEL_ARG *key2);
293
 
 
294
 
static optimizer::SEL_ARG *key_and(optimizer::RangeParameter *param,
295
 
                                   optimizer::SEL_ARG *key1,
296
 
                                   optimizer::SEL_ARG *key2,
297
 
                                   uint32_t clone_flag);
298
 
 
299
 
static bool get_range(optimizer::SEL_ARG **e1, optimizer::SEL_ARG **e2, optimizer::SEL_ARG *root1);
300
 
 
301
 
optimizer::SEL_ARG optimizer::null_element(optimizer::SEL_ARG::IMPOSSIBLE);
302
 
 
303
 
static bool null_part_in_key(KEY_PART *key_part,
304
 
                             const unsigned char *key,
305
 
                             uint32_t length);
306
 
 
307
 
bool sel_trees_can_be_ored(optimizer::SEL_TREE *tree1, 
308
 
                           optimizer::SEL_TREE *tree2, 
309
 
                           optimizer::RangeParameter *param);
310
 
 
311
 
 
312
 
 
313
 
 
 
719
static SEL_TREE * get_mm_parts(RANGE_OPT_PARAM *param,COND *cond_func,Field *field,
 
720
                               Item_func::Functype type,Item *value,
 
721
                               Item_result cmp_type);
 
722
static SEL_ARG *get_mm_leaf(RANGE_OPT_PARAM *param,COND *cond_func,Field *field,
 
723
                            KEY_PART *key_part,
 
724
                            Item_func::Functype type,Item *value);
 
725
static SEL_TREE *get_mm_tree(RANGE_OPT_PARAM *param,COND *cond);
 
726
 
 
727
static bool is_key_scan_ror(PARAM *param, uint keynr, uint8_t nparts);
 
728
static ha_rows check_quick_select(PARAM *param, uint idx, bool index_only,
 
729
                                  SEL_ARG *tree, bool update_tbl_stats, 
 
730
                                  uint *mrr_flags, uint *bufsize,
 
731
                                  COST_VECT *cost);
 
732
                                  //bool update_tbl_stats);
 
733
/*static ha_rows check_quick_keys(PARAM *param,uint index,SEL_ARG *key_tree,
 
734
                                uchar *min_key, uint min_key_flag, int,
 
735
                                uchar *max_key, uint max_key_flag, int);
 
736
*/
 
737
 
 
738
QUICK_RANGE_SELECT *get_quick_select(PARAM *param,uint index,
 
739
                                     SEL_ARG *key_tree, uint mrr_flags, 
 
740
                                     uint mrr_buf_size, MEM_ROOT *alloc);
 
741
static TRP_RANGE *get_key_scans_params(PARAM *param, SEL_TREE *tree,
 
742
                                       bool index_read_must_be_used,
 
743
                                       bool update_tbl_stats,
 
744
                                       double read_time);
 
745
static
 
746
TRP_ROR_INTERSECT *get_best_ror_intersect(const PARAM *param, SEL_TREE *tree,
 
747
                                          double read_time,
 
748
                                          bool *are_all_covering);
 
749
static
 
750
TRP_ROR_INTERSECT *get_best_covering_ror_intersect(PARAM *param,
 
751
                                                   SEL_TREE *tree,
 
752
                                                   double read_time);
 
753
static
 
754
TABLE_READ_PLAN *get_best_disjunct_quick(PARAM *param, SEL_IMERGE *imerge,
 
755
                                         double read_time);
 
756
static
 
757
TRP_GROUP_MIN_MAX *get_best_group_min_max(PARAM *param, SEL_TREE *tree);
 
758
 
 
759
static void print_sel_tree(PARAM *param, SEL_TREE *tree, key_map *tree_map,
 
760
                           const char *msg);
 
761
static void print_ror_scans_arr(TABLE *table, const char *msg,
 
762
                                struct st_ror_scan_info **start,
 
763
                                struct st_ror_scan_info **end);
 
764
 
 
765
static SEL_TREE *tree_and(RANGE_OPT_PARAM *param,SEL_TREE *tree1,SEL_TREE *tree2);
 
766
static SEL_TREE *tree_or(RANGE_OPT_PARAM *param,SEL_TREE *tree1,SEL_TREE *tree2);
 
767
static SEL_ARG *sel_add(SEL_ARG *key1,SEL_ARG *key2);
 
768
static SEL_ARG *key_or(RANGE_OPT_PARAM *param, SEL_ARG *key1, SEL_ARG *key2);
 
769
static SEL_ARG *key_and(RANGE_OPT_PARAM *param, SEL_ARG *key1, SEL_ARG *key2,
 
770
                        uint clone_flag);
 
771
static bool get_range(SEL_ARG **e1,SEL_ARG **e2,SEL_ARG *root1);
 
772
bool get_quick_keys(PARAM *param,QUICK_RANGE_SELECT *quick,KEY_PART *key,
 
773
                    SEL_ARG *key_tree, uchar *min_key,uint min_key_flag,
 
774
                    uchar *max_key,uint max_key_flag);
 
775
static bool eq_tree(SEL_ARG* a,SEL_ARG *b);
 
776
 
 
777
static SEL_ARG null_element(SEL_ARG::IMPOSSIBLE);
 
778
static bool null_part_in_key(KEY_PART *key_part, const uchar *key,
 
779
                             uint length);
 
780
bool sel_trees_can_be_ored(SEL_TREE *tree1, SEL_TREE *tree2, RANGE_OPT_PARAM* param);
 
781
 
 
782
 
 
783
/*
 
784
  SEL_IMERGE is a list of possible ways to do index merge, i.e. it is
 
785
  a condition in the following form:
 
786
   (t_1||t_2||...||t_N) && (next)
 
787
 
 
788
  where all t_i are SEL_TREEs, next is another SEL_IMERGE and no pair
 
789
  (t_i,t_j) contains SEL_ARGS for the same index.
 
790
 
 
791
  SEL_TREE contained in SEL_IMERGE always has merges=NULL.
 
792
 
 
793
  This class relies on memory manager to do the cleanup.
 
794
*/
 
795
 
 
796
class SEL_IMERGE : public Sql_alloc
 
797
{
 
798
  enum { PREALLOCED_TREES= 10};
 
799
public:
 
800
  SEL_TREE *trees_prealloced[PREALLOCED_TREES];
 
801
  SEL_TREE **trees;             /* trees used to do index_merge   */
 
802
  SEL_TREE **trees_next;        /* last of these trees            */
 
803
  SEL_TREE **trees_end;         /* end of allocated space         */
 
804
 
 
805
  SEL_ARG  ***best_keys;        /* best keys to read in SEL_TREEs */
 
806
 
 
807
  SEL_IMERGE() :
 
808
    trees(&trees_prealloced[0]),
 
809
    trees_next(trees),
 
810
    trees_end(trees + PREALLOCED_TREES)
 
811
  {}
 
812
  int or_sel_tree(RANGE_OPT_PARAM *param, SEL_TREE *tree);
 
813
  int or_sel_tree_with_checks(RANGE_OPT_PARAM *param, SEL_TREE *new_tree);
 
814
  int or_sel_imerge_with_checks(RANGE_OPT_PARAM *param, SEL_IMERGE* imerge);
 
815
};
 
816
 
 
817
 
 
818
/*
 
819
  Add SEL_TREE to this index_merge without any checks,
 
820
 
 
821
  NOTES
 
822
    This function implements the following:
 
823
      (x_1||...||x_N) || t = (x_1||...||x_N||t), where x_i, t are SEL_TREEs
 
824
 
 
825
  RETURN
 
826
     0 - OK
 
827
    -1 - Out of memory.
 
828
*/
 
829
 
 
830
int SEL_IMERGE::or_sel_tree(RANGE_OPT_PARAM *param, SEL_TREE *tree)
 
831
{
 
832
  if (trees_next == trees_end)
 
833
  {
 
834
    const int realloc_ratio= 2;         /* Double size for next round */
 
835
    uint old_elements= (trees_end - trees);
 
836
    uint old_size= sizeof(SEL_TREE**) * old_elements;
 
837
    uint new_size= old_size * realloc_ratio;
 
838
    SEL_TREE **new_trees;
 
839
    if (!(new_trees= (SEL_TREE**)alloc_root(param->mem_root, new_size)))
 
840
      return -1;
 
841
    memcpy(new_trees, trees, old_size);
 
842
    trees=      new_trees;
 
843
    trees_next= trees + old_elements;
 
844
    trees_end=  trees + old_elements * realloc_ratio;
 
845
  }
 
846
  *(trees_next++)= tree;
 
847
  return 0;
 
848
}
 
849
 
 
850
 
 
851
/*
 
852
  Perform OR operation on this SEL_IMERGE and supplied SEL_TREE new_tree,
 
853
  combining new_tree with one of the trees in this SEL_IMERGE if they both
 
854
  have SEL_ARGs for the same key.
 
855
 
 
856
  SYNOPSIS
 
857
    or_sel_tree_with_checks()
 
858
      param    PARAM from SQL_SELECT::test_quick_select
 
859
      new_tree SEL_TREE with type KEY or KEY_SMALLER.
 
860
 
 
861
  NOTES
 
862
    This does the following:
 
863
    (t_1||...||t_k)||new_tree =
 
864
     either
 
865
       = (t_1||...||t_k||new_tree)
 
866
     or
 
867
       = (t_1||....||(t_j|| new_tree)||...||t_k),
 
868
 
 
869
     where t_i, y are SEL_TREEs.
 
870
    new_tree is combined with the first t_j it has a SEL_ARG on common
 
871
    key with. As a consequence of this, choice of keys to do index_merge
 
872
    read may depend on the order of conditions in WHERE part of the query.
 
873
 
 
874
  RETURN
 
875
    0  OK
 
876
    1  One of the trees was combined with new_tree to SEL_TREE::ALWAYS,
 
877
       and (*this) should be discarded.
 
878
   -1  An error occurred.
 
879
*/
 
880
 
 
881
int SEL_IMERGE::or_sel_tree_with_checks(RANGE_OPT_PARAM *param, SEL_TREE *new_tree)
 
882
{
 
883
  for (SEL_TREE** tree = trees;
 
884
       tree != trees_next;
 
885
       tree++)
 
886
  {
 
887
    if (sel_trees_can_be_ored(*tree, new_tree, param))
 
888
    {
 
889
      *tree = tree_or(param, *tree, new_tree);
 
890
      if (!*tree)
 
891
        return 1;
 
892
      if (((*tree)->type == SEL_TREE::MAYBE) ||
 
893
          ((*tree)->type == SEL_TREE::ALWAYS))
 
894
        return 1;
 
895
      /* SEL_TREE::IMPOSSIBLE is impossible here */
 
896
      return 0;
 
897
    }
 
898
  }
 
899
 
 
900
  /* New tree cannot be combined with any of existing trees. */
 
901
  return or_sel_tree(param, new_tree);
 
902
}
 
903
 
 
904
 
 
905
/*
 
906
  Perform OR operation on this index_merge and supplied index_merge list.
 
907
 
 
908
  RETURN
 
909
    0 - OK
 
910
    1 - One of conditions in result is always true and this SEL_IMERGE
 
911
        should be discarded.
 
912
   -1 - An error occurred
 
913
*/
 
914
 
 
915
int SEL_IMERGE::or_sel_imerge_with_checks(RANGE_OPT_PARAM *param, SEL_IMERGE* imerge)
 
916
{
 
917
  for (SEL_TREE** tree= imerge->trees;
 
918
       tree != imerge->trees_next;
 
919
       tree++)
 
920
  {
 
921
    if (or_sel_tree_with_checks(param, *tree))
 
922
      return 1;
 
923
  }
 
924
  return 0;
 
925
}
314
926
 
315
927
 
316
928
/*
317
929
  Perform AND operation on two index_merge lists and store result in *im1.
318
930
*/
319
931
 
320
 
inline void imerge_list_and_list(List<optimizer::SEL_IMERGE> *im1, List<optimizer::SEL_IMERGE> *im2)
 
932
inline void imerge_list_and_list(List<SEL_IMERGE> *im1, List<SEL_IMERGE> *im2)
321
933
{
322
934
  im1->concat(im2);
323
935
}
324
936
 
325
937
 
 
938
/*
 
939
  Perform OR operation on 2 index_merge lists, storing result in first list.
 
940
 
 
941
  NOTES
 
942
    The following conversion is implemented:
 
943
     (a_1 &&...&& a_N)||(b_1 &&...&& b_K) = AND_i,j(a_i || b_j) =>
 
944
      => (a_1||b_1).
 
945
 
 
946
    i.e. all conjuncts except the first one are currently dropped.
 
947
    This is done to avoid producing N*K ways to do index_merge.
 
948
 
 
949
    If (a_1||b_1) produce a condition that is always true, NULL is returned
 
950
    and index_merge is discarded (while it is actually possible to try
 
951
    harder).
 
952
 
 
953
    As a consequence of this, choice of keys to do index_merge read may depend
 
954
    on the order of conditions in WHERE part of the query.
 
955
 
 
956
  RETURN
 
957
    0     OK, result is stored in *im1
 
958
    other Error, both passed lists are unusable
 
959
*/
 
960
 
 
961
int imerge_list_or_list(RANGE_OPT_PARAM *param,
 
962
                        List<SEL_IMERGE> *im1,
 
963
                        List<SEL_IMERGE> *im2)
 
964
{
 
965
  SEL_IMERGE *imerge= im1->head();
 
966
  im1->empty();
 
967
  im1->push_back(imerge);
 
968
 
 
969
  return imerge->or_sel_imerge_with_checks(param, im2->head());
 
970
}
 
971
 
 
972
 
 
973
/*
 
974
  Perform OR operation on index_merge list and key tree.
 
975
 
 
976
  RETURN
 
977
    0     OK, result is stored in *im1.
 
978
    other Error
 
979
*/
 
980
 
 
981
int imerge_list_or_tree(RANGE_OPT_PARAM *param,
 
982
                        List<SEL_IMERGE> *im1,
 
983
                        SEL_TREE *tree)
 
984
{
 
985
  SEL_IMERGE *imerge;
 
986
  List_iterator<SEL_IMERGE> it(*im1);
 
987
  while ((imerge= it++))
 
988
  {
 
989
    if (imerge->or_sel_tree_with_checks(param, tree))
 
990
      it.remove();
 
991
  }
 
992
  return im1->is_empty();
 
993
}
 
994
 
 
995
 
326
996
/***************************************************************************
327
 
** Basic functions for SqlSelect and QuickRangeSelect
 
997
** Basic functions for SQL_SELECT and QUICK_RANGE_SELECT
328
998
***************************************************************************/
329
999
 
330
1000
        /* make a select from mysql info
333
1003
           1 = Got some error (out of memory?)
334
1004
           */
335
1005
 
336
 
optimizer::SqlSelect *optimizer::make_select(Table *head,
337
 
                                             table_map const_tables,
338
 
                                             table_map read_tables,
339
 
                                             COND *conds,
340
 
                                             bool allow_null_cond,
341
 
                                             int *error)
 
1006
SQL_SELECT *make_select(TABLE *head, table_map const_tables,
 
1007
                        table_map read_tables, COND *conds,
 
1008
                        bool allow_null_cond,
 
1009
                        int *error)
342
1010
{
343
 
  optimizer::SqlSelect *select= NULL;
344
 
 
345
 
  *error= 0;
346
 
 
347
 
  if (! conds && ! allow_null_cond)
348
 
  {
349
 
    return 0;
350
 
  }
351
 
  if (! (select= new optimizer::SqlSelect))
 
1011
  SQL_SELECT *select;
 
1012
 
 
1013
  *error=0;
 
1014
 
 
1015
  if (!conds && !allow_null_cond)
 
1016
    return(0);
 
1017
  if (!(select= new SQL_SELECT))
352
1018
  {
353
1019
    *error= 1;                  // out of memory
354
 
    return 0;
 
1020
    return(0);          /* purecov: inspected */
355
1021
  }
356
1022
  select->read_tables=read_tables;
357
1023
  select->const_tables=const_tables;
360
1026
 
361
1027
  if (head->sort.io_cache)
362
1028
  {
363
 
    memcpy(select->file, head->sort.io_cache, sizeof(internal::IO_CACHE));
364
 
    select->records=(ha_rows) (select->file->end_of_file/
365
 
                               head->cursor->ref_length);
366
 
    delete head->sort.io_cache;
 
1029
    select->file= *head->sort.io_cache;
 
1030
    select->records=(ha_rows) (select->file.end_of_file/
 
1031
                               head->file->ref_length);
 
1032
    my_free(head->sort.io_cache, MYF(0));
367
1033
    head->sort.io_cache=0;
368
1034
  }
369
1035
  return(select);
370
1036
}
371
1037
 
372
1038
 
373
 
optimizer::SqlSelect::SqlSelect() 
374
 
  :
375
 
    quick(NULL),
376
 
    cond(NULL),
377
 
    file(static_cast<internal::IO_CACHE *>(memory::sql_calloc(sizeof(internal::IO_CACHE)))),
378
 
    free_cond(false)
 
1039
SQL_SELECT::SQL_SELECT() :quick(0),cond(0),free_cond(0)
379
1040
{
380
 
  quick_keys.reset();
381
 
  needed_reg.reset();
382
 
  my_b_clear(file);
 
1041
  quick_keys.clear_all(); needed_reg.clear_all();
 
1042
  my_b_clear(&file);
383
1043
}
384
1044
 
385
1045
 
386
 
void optimizer::SqlSelect::cleanup()
 
1046
void SQL_SELECT::cleanup()
387
1047
{
388
 
  if (quick)
389
 
  {
390
 
    delete quick;
391
 
    quick= NULL;
392
 
  }
393
 
 
 
1048
  delete quick;
 
1049
  quick= 0;
394
1050
  if (free_cond)
395
1051
  {
396
 
    free_cond= 0;
 
1052
    free_cond=0;
397
1053
    delete cond;
398
1054
    cond= 0;
399
1055
  }
400
 
  close_cached_file(file);
 
1056
  close_cached_file(&file);
401
1057
}
402
1058
 
403
1059
 
404
 
optimizer::SqlSelect::~SqlSelect()
 
1060
SQL_SELECT::~SQL_SELECT()
405
1061
{
406
1062
  cleanup();
407
1063
}
408
1064
 
409
 
 
410
 
bool optimizer::SqlSelect::check_quick(Session *session, 
411
 
                                       bool force_quick_range,
412
 
                                       ha_rows limit)
413
 
{
414
 
  key_map tmp;
415
 
  tmp.set();
416
 
  return (test_quick_select(session, 
417
 
                           tmp, 
418
 
                           0, 
419
 
                           limit,
420
 
                           force_quick_range, 
421
 
                           false) < 0);
422
 
}
423
 
 
424
 
 
425
 
bool optimizer::SqlSelect::skip_record()
426
 
{
427
 
  return (cond ? cond->val_int() == 0 : 0);
428
 
}
429
 
 
430
 
 
431
 
optimizer::QuickSelectInterface::QuickSelectInterface()
432
 
  :
433
 
    max_used_key_length(0),
434
 
    used_key_parts(0)
435
 
{}
 
1065
QUICK_SELECT_I::QUICK_SELECT_I()
 
1066
  :max_used_key_length(0),
 
1067
   used_key_parts(0)
 
1068
{}
 
1069
 
 
1070
QUICK_RANGE_SELECT::QUICK_RANGE_SELECT(THD *thd, TABLE *table, uint key_nr,
 
1071
                                       bool no_alloc, MEM_ROOT *parent_alloc,
 
1072
                                       bool *create_error)
 
1073
  :free_file(0),cur_range(NULL),last_range(0),dont_free(0)
 
1074
{
 
1075
  my_bitmap_map *bitmap;
 
1076
 
 
1077
  in_ror_merged_scan= 0;
 
1078
  sorted= 0;
 
1079
  index= key_nr;
 
1080
  head=  table;
 
1081
  key_part_info= head->key_info[index].key_part;
 
1082
  my_init_dynamic_array(&ranges, sizeof(QUICK_RANGE*), 16, 16);
 
1083
 
 
1084
  /* 'thd' is not accessible in QUICK_RANGE_SELECT::reset(). */
 
1085
  mrr_buf_size= thd->variables.read_rnd_buff_size;
 
1086
  mrr_buf_desc= NULL;
 
1087
 
 
1088
  if (!no_alloc && !parent_alloc)
 
1089
  {
 
1090
    // Allocates everything through the internal memroot
 
1091
    init_sql_alloc(&alloc, thd->variables.range_alloc_block_size, 0);
 
1092
    thd->mem_root= &alloc;
 
1093
  }
 
1094
  else
 
1095
    memset((char*) &alloc, 0, sizeof(alloc));
 
1096
  file= head->file;
 
1097
  record= head->record[0];
 
1098
  save_read_set= head->read_set;
 
1099
  save_write_set= head->write_set;
 
1100
 
 
1101
  /* Allocate a bitmap for used columns (Q: why not on MEM_ROOT?) */
 
1102
  if (!(bitmap= (my_bitmap_map*) my_malloc(head->s->column_bitmap_size,
 
1103
                                           MYF(MY_WME))))
 
1104
  {
 
1105
    column_bitmap.bitmap= 0;
 
1106
    *create_error= 1;
 
1107
  }
 
1108
  else
 
1109
    bitmap_init(&column_bitmap, bitmap, head->s->fields, false);
 
1110
  return;
 
1111
}
 
1112
 
 
1113
 
 
1114
int QUICK_RANGE_SELECT::init()
 
1115
{
 
1116
  if (file->inited != handler::NONE)
 
1117
    file->ha_index_or_rnd_end();
 
1118
  return(file->ha_index_init(index, 1));
 
1119
}
 
1120
 
 
1121
 
 
1122
void QUICK_RANGE_SELECT::range_end()
 
1123
{
 
1124
  if (file->inited != handler::NONE)
 
1125
    file->ha_index_or_rnd_end();
 
1126
}
 
1127
 
 
1128
 
 
1129
QUICK_RANGE_SELECT::~QUICK_RANGE_SELECT()
 
1130
{
 
1131
  if (!dont_free)
 
1132
  {
 
1133
    /* file is NULL for CPK scan on covering ROR-intersection */
 
1134
    if (file) 
 
1135
    {
 
1136
      range_end();
 
1137
      if (head->key_read)
 
1138
      {
 
1139
        head->key_read= 0;
 
1140
        file->extra(HA_EXTRA_NO_KEYREAD);
 
1141
      }
 
1142
      if (free_file)
 
1143
      {
 
1144
        file->ha_external_lock(current_thd, F_UNLCK);
 
1145
        file->close();
 
1146
        delete file;
 
1147
      }
 
1148
    }
 
1149
    delete_dynamic(&ranges); /* ranges are allocated in alloc */
 
1150
    free_root(&alloc,MYF(0));
 
1151
    my_free((char*) column_bitmap.bitmap, MYF(MY_ALLOW_ZERO_PTR));
 
1152
  }
 
1153
  head->column_bitmaps_set(save_read_set, save_write_set);
 
1154
  x_free(mrr_buf_desc);
 
1155
  return;
 
1156
}
 
1157
 
 
1158
 
 
1159
QUICK_INDEX_MERGE_SELECT::QUICK_INDEX_MERGE_SELECT(THD *thd_param,
 
1160
                                                   TABLE *table)
 
1161
  :pk_quick_select(NULL), thd(thd_param)
 
1162
{
 
1163
  index= MAX_KEY;
 
1164
  head= table;
 
1165
  memset(&read_record, 0, sizeof(read_record));
 
1166
  init_sql_alloc(&alloc, thd->variables.range_alloc_block_size, 0);
 
1167
  return;
 
1168
}
 
1169
 
 
1170
int QUICK_INDEX_MERGE_SELECT::init()
 
1171
{
 
1172
  return(0);
 
1173
}
 
1174
 
 
1175
int QUICK_INDEX_MERGE_SELECT::reset()
 
1176
{
 
1177
  return(read_keys_and_merge());
 
1178
}
 
1179
 
 
1180
bool
 
1181
QUICK_INDEX_MERGE_SELECT::push_quick_back(QUICK_RANGE_SELECT *quick_sel_range)
 
1182
{
 
1183
  /*
 
1184
    Save quick_select that does scan on clustered primary key as it will be
 
1185
    processed separately.
 
1186
  */
 
1187
  if (head->file->primary_key_is_clustered() &&
 
1188
      quick_sel_range->index == head->s->primary_key)
 
1189
    pk_quick_select= quick_sel_range;
 
1190
  else
 
1191
    return quick_selects.push_back(quick_sel_range);
 
1192
  return 0;
 
1193
}
 
1194
 
 
1195
QUICK_INDEX_MERGE_SELECT::~QUICK_INDEX_MERGE_SELECT()
 
1196
{
 
1197
  List_iterator_fast<QUICK_RANGE_SELECT> quick_it(quick_selects);
 
1198
  QUICK_RANGE_SELECT* quick;
 
1199
  quick_it.rewind();
 
1200
  while ((quick= quick_it++))
 
1201
    quick->file= NULL;
 
1202
  quick_selects.delete_elements();
 
1203
  delete pk_quick_select;
 
1204
  free_root(&alloc,MYF(0));
 
1205
  return;
 
1206
}
 
1207
 
 
1208
 
 
1209
QUICK_ROR_INTERSECT_SELECT::QUICK_ROR_INTERSECT_SELECT(THD *thd_param,
 
1210
                                                       TABLE *table,
 
1211
                                                       bool retrieve_full_rows,
 
1212
                                                       MEM_ROOT *parent_alloc)
 
1213
  : cpk_quick(NULL), thd(thd_param), need_to_fetch_row(retrieve_full_rows),
 
1214
    scans_inited(false)
 
1215
{
 
1216
  index= MAX_KEY;
 
1217
  head= table;
 
1218
  record= head->record[0];
 
1219
  if (!parent_alloc)
 
1220
    init_sql_alloc(&alloc, thd->variables.range_alloc_block_size, 0);
 
1221
  else
 
1222
    memset(&alloc, 0, sizeof(MEM_ROOT));
 
1223
  last_rowid= (uchar*) alloc_root(parent_alloc? parent_alloc : &alloc,
 
1224
                                  head->file->ref_length);
 
1225
}
 
1226
 
 
1227
 
 
1228
/*
 
1229
  Do post-constructor initialization.
 
1230
  SYNOPSIS
 
1231
    QUICK_ROR_INTERSECT_SELECT::init()
 
1232
 
 
1233
  RETURN
 
1234
    0      OK
 
1235
    other  Error code
 
1236
*/
 
1237
 
 
1238
int QUICK_ROR_INTERSECT_SELECT::init()
 
1239
{
 
1240
 /* Check if last_rowid was successfully allocated in ctor */
 
1241
  return(!last_rowid);
 
1242
}
 
1243
 
 
1244
 
 
1245
/*
 
1246
  Initialize this quick select to be a ROR-merged scan.
 
1247
 
 
1248
  SYNOPSIS
 
1249
    QUICK_RANGE_SELECT::init_ror_merged_scan()
 
1250
      reuse_handler If true, use head->file, otherwise create a separate
 
1251
                    handler object
 
1252
 
 
1253
  NOTES
 
1254
    This function creates and prepares for subsequent use a separate handler
 
1255
    object if it can't reuse head->file. The reason for this is that during
 
1256
    ROR-merge several key scans are performed simultaneously, and a single
 
1257
    handler is only capable of preserving context of a single key scan.
 
1258
 
 
1259
    In ROR-merge the quick select doing merge does full records retrieval,
 
1260
    merged quick selects read only keys.
 
1261
 
 
1262
  RETURN
 
1263
    0  ROR child scan initialized, ok to use.
 
1264
    1  error
 
1265
*/
 
1266
 
 
1267
int QUICK_RANGE_SELECT::init_ror_merged_scan(bool reuse_handler)
 
1268
{
 
1269
  handler *save_file= file, *org_file;
 
1270
  THD *thd;
 
1271
 
 
1272
  in_ror_merged_scan= 1;
 
1273
  if (reuse_handler)
 
1274
  {
 
1275
    if (init() || reset())
 
1276
    {
 
1277
      return(1);
 
1278
    }
 
1279
    head->column_bitmaps_set(&column_bitmap, &column_bitmap);
 
1280
    goto end;
 
1281
  }
 
1282
 
 
1283
  /* Create a separate handler object for this quick select */
 
1284
  if (free_file)
 
1285
  {
 
1286
    /* already have own 'handler' object. */
 
1287
    return(0);
 
1288
  }
 
1289
 
 
1290
  thd= head->in_use;
 
1291
  if (!(file= head->file->clone(thd->mem_root)))
 
1292
  {
 
1293
    /* 
 
1294
      Manually set the error flag. Note: there seems to be quite a few
 
1295
      places where a failure could cause the server to "hang" the client by
 
1296
      sending no response to a query. ATM those are not real errors because 
 
1297
      the storage engine calls in question happen to never fail with the 
 
1298
      existing storage engines. 
 
1299
    */
 
1300
    my_error(ER_OUT_OF_RESOURCES, MYF(0)); /* purecov: inspected */
 
1301
    /* Caller will free the memory */
 
1302
    goto failure;  /* purecov: inspected */
 
1303
  }
 
1304
 
 
1305
  head->column_bitmaps_set(&column_bitmap, &column_bitmap);
 
1306
 
 
1307
  if (file->ha_external_lock(thd, F_RDLCK))
 
1308
    goto failure;
 
1309
 
 
1310
  if (init() || reset())
 
1311
  {
 
1312
    file->ha_external_lock(thd, F_UNLCK);
 
1313
    file->close();
 
1314
    goto failure;
 
1315
  }
 
1316
  free_file= true;
 
1317
  last_rowid= file->ref;
 
1318
 
 
1319
end:
 
1320
  /*
 
1321
    We are only going to read key fields and call position() on 'file'
 
1322
    The following sets head->tmp_set to only use this key and then updates
 
1323
    head->read_set and head->write_set to use this bitmap.
 
1324
    The now bitmap is stored in 'column_bitmap' which is used in ::get_next()
 
1325
  */
 
1326
  org_file= head->file;
 
1327
  head->file= file;
 
1328
  /* We don't have to set 'head->keyread' here as the 'file' is unique */
 
1329
  if (!head->no_keyread)
 
1330
  {
 
1331
    head->key_read= 1;
 
1332
    head->mark_columns_used_by_index(index);
 
1333
  }
 
1334
  head->prepare_for_position();
 
1335
  head->file= org_file;
 
1336
  bitmap_copy(&column_bitmap, head->read_set);
 
1337
  head->column_bitmaps_set(&column_bitmap, &column_bitmap);
 
1338
 
 
1339
  return(0);
 
1340
 
 
1341
failure:
 
1342
  head->column_bitmaps_set(save_read_set, save_write_set);
 
1343
  delete file;
 
1344
  file= save_file;
 
1345
  return(1);
 
1346
}
 
1347
 
 
1348
 
 
1349
/*
 
1350
  Initialize this quick select to be a part of a ROR-merged scan.
 
1351
  SYNOPSIS
 
1352
    QUICK_ROR_INTERSECT_SELECT::init_ror_merged_scan()
 
1353
      reuse_handler If true, use head->file, otherwise create separate
 
1354
                    handler object.
 
1355
  RETURN
 
1356
    0     OK
 
1357
    other error code
 
1358
*/
 
1359
int QUICK_ROR_INTERSECT_SELECT::init_ror_merged_scan(bool reuse_handler)
 
1360
{
 
1361
  List_iterator_fast<QUICK_RANGE_SELECT> quick_it(quick_selects);
 
1362
  QUICK_RANGE_SELECT* quick;
 
1363
 
 
1364
  /* Initialize all merged "children" quick selects */
 
1365
  assert(!need_to_fetch_row || reuse_handler);
 
1366
  if (!need_to_fetch_row && reuse_handler)
 
1367
  {
 
1368
    quick= quick_it++;
 
1369
    /*
 
1370
      There is no use of this->file. Use it for the first of merged range
 
1371
      selects.
 
1372
    */
 
1373
    if (quick->init_ror_merged_scan(true))
 
1374
      return(1);
 
1375
    quick->file->extra(HA_EXTRA_KEYREAD_PRESERVE_FIELDS);
 
1376
  }
 
1377
  while ((quick= quick_it++))
 
1378
  {
 
1379
    if (quick->init_ror_merged_scan(false))
 
1380
      return(1);
 
1381
    quick->file->extra(HA_EXTRA_KEYREAD_PRESERVE_FIELDS);
 
1382
    /* All merged scans share the same record buffer in intersection. */
 
1383
    quick->record= head->record[0];
 
1384
  }
 
1385
 
 
1386
  if (need_to_fetch_row && head->file->ha_rnd_init(1))
 
1387
  {
 
1388
    return(1);
 
1389
  }
 
1390
  return(0);
 
1391
}
 
1392
 
 
1393
 
 
1394
/*
 
1395
  Initialize quick select for row retrieval.
 
1396
  SYNOPSIS
 
1397
    reset()
 
1398
  RETURN
 
1399
    0      OK
 
1400
    other  Error code
 
1401
*/
 
1402
 
 
1403
int QUICK_ROR_INTERSECT_SELECT::reset()
 
1404
{
 
1405
  if (!scans_inited && init_ror_merged_scan(true))
 
1406
    return(1);
 
1407
  scans_inited= true;
 
1408
  List_iterator_fast<QUICK_RANGE_SELECT> it(quick_selects);
 
1409
  QUICK_RANGE_SELECT *quick;
 
1410
  while ((quick= it++))
 
1411
    quick->reset();
 
1412
  return(0);
 
1413
}
 
1414
 
 
1415
 
 
1416
/*
 
1417
  Add a merged quick select to this ROR-intersection quick select.
 
1418
 
 
1419
  SYNOPSIS
 
1420
    QUICK_ROR_INTERSECT_SELECT::push_quick_back()
 
1421
      quick Quick select to be added. The quick select must return
 
1422
            rows in rowid order.
 
1423
  NOTES
 
1424
    This call can only be made before init() is called.
 
1425
 
 
1426
  RETURN
 
1427
    false OK
 
1428
    true  Out of memory.
 
1429
*/
 
1430
 
 
1431
bool
 
1432
QUICK_ROR_INTERSECT_SELECT::push_quick_back(QUICK_RANGE_SELECT *quick)
 
1433
{
 
1434
  return quick_selects.push_back(quick);
 
1435
}
 
1436
 
 
1437
QUICK_ROR_INTERSECT_SELECT::~QUICK_ROR_INTERSECT_SELECT()
 
1438
{
 
1439
  quick_selects.delete_elements();
 
1440
  delete cpk_quick;
 
1441
  free_root(&alloc,MYF(0));
 
1442
  if (need_to_fetch_row && head->file->inited != handler::NONE)
 
1443
    head->file->ha_rnd_end();
 
1444
  return;
 
1445
}
 
1446
 
 
1447
 
 
1448
QUICK_ROR_UNION_SELECT::QUICK_ROR_UNION_SELECT(THD *thd_param,
 
1449
                                               TABLE *table)
 
1450
  : thd(thd_param), scans_inited(false)
 
1451
{
 
1452
  index= MAX_KEY;
 
1453
  head= table;
 
1454
  rowid_length= table->file->ref_length;
 
1455
  record= head->record[0];
 
1456
  init_sql_alloc(&alloc, thd->variables.range_alloc_block_size, 0);
 
1457
  thd_param->mem_root= &alloc;
 
1458
}
 
1459
 
 
1460
 
 
1461
/*
 
1462
  Do post-constructor initialization.
 
1463
  SYNOPSIS
 
1464
    QUICK_ROR_UNION_SELECT::init()
 
1465
 
 
1466
  RETURN
 
1467
    0      OK
 
1468
    other  Error code
 
1469
*/
 
1470
 
 
1471
int QUICK_ROR_UNION_SELECT::init()
 
1472
{
 
1473
  if (init_queue(&queue, quick_selects.elements, 0,
 
1474
                 false , QUICK_ROR_UNION_SELECT::queue_cmp,
 
1475
                 (void*) this))
 
1476
  {
 
1477
    memset(&queue, 0, sizeof(QUEUE));
 
1478
    return(1);
 
1479
  }
 
1480
 
 
1481
  if (!(cur_rowid= (uchar*) alloc_root(&alloc, 2*head->file->ref_length)))
 
1482
    return(1);
 
1483
  prev_rowid= cur_rowid + head->file->ref_length;
 
1484
  return(0);
 
1485
}
 
1486
 
 
1487
 
 
1488
/*
 
1489
  Comparison function to be used QUICK_ROR_UNION_SELECT::queue priority
 
1490
  queue.
 
1491
 
 
1492
  SYNPOSIS
 
1493
    QUICK_ROR_UNION_SELECT::queue_cmp()
 
1494
      arg   Pointer to QUICK_ROR_UNION_SELECT
 
1495
      val1  First merged select
 
1496
      val2  Second merged select
 
1497
*/
 
1498
 
 
1499
int QUICK_ROR_UNION_SELECT::queue_cmp(void *arg, uchar *val1, uchar *val2)
 
1500
{
 
1501
  QUICK_ROR_UNION_SELECT *self= (QUICK_ROR_UNION_SELECT*)arg;
 
1502
  return self->head->file->cmp_ref(((QUICK_SELECT_I*)val1)->last_rowid,
 
1503
                                   ((QUICK_SELECT_I*)val2)->last_rowid);
 
1504
}
 
1505
 
 
1506
 
 
1507
/*
 
1508
  Initialize quick select for row retrieval.
 
1509
  SYNOPSIS
 
1510
    reset()
 
1511
 
 
1512
  RETURN
 
1513
    0      OK
 
1514
    other  Error code
 
1515
*/
 
1516
 
 
1517
int QUICK_ROR_UNION_SELECT::reset()
 
1518
{
 
1519
  QUICK_SELECT_I *quick;
 
1520
  int error;
 
1521
  have_prev_rowid= false;
 
1522
  if (!scans_inited)
 
1523
  {
 
1524
    List_iterator_fast<QUICK_SELECT_I> it(quick_selects);
 
1525
    while ((quick= it++))
 
1526
    {
 
1527
      if (quick->init_ror_merged_scan(false))
 
1528
        return(1);
 
1529
    }
 
1530
    scans_inited= true;
 
1531
  }
 
1532
  queue_remove_all(&queue);
 
1533
  /*
 
1534
    Initialize scans for merged quick selects and put all merged quick
 
1535
    selects into the queue.
 
1536
  */
 
1537
  List_iterator_fast<QUICK_SELECT_I> it(quick_selects);
 
1538
  while ((quick= it++))
 
1539
  {
 
1540
    if (quick->reset())
 
1541
      return(1);
 
1542
    if ((error= quick->get_next()))
 
1543
    {
 
1544
      if (error == HA_ERR_END_OF_FILE)
 
1545
        continue;
 
1546
      return(error);
 
1547
    }
 
1548
    quick->save_last_pos();
 
1549
    queue_insert(&queue, (uchar*)quick);
 
1550
  }
 
1551
 
 
1552
  if (head->file->ha_rnd_init(1))
 
1553
  {
 
1554
    return(1);
 
1555
  }
 
1556
 
 
1557
  return(0);
 
1558
}
 
1559
 
 
1560
 
 
1561
bool
 
1562
QUICK_ROR_UNION_SELECT::push_quick_back(QUICK_SELECT_I *quick_sel_range)
 
1563
{
 
1564
  return quick_selects.push_back(quick_sel_range);
 
1565
}
 
1566
 
 
1567
QUICK_ROR_UNION_SELECT::~QUICK_ROR_UNION_SELECT()
 
1568
{
 
1569
  delete_queue(&queue);
 
1570
  quick_selects.delete_elements();
 
1571
  if (head->file->inited != handler::NONE)
 
1572
    head->file->ha_rnd_end();
 
1573
  free_root(&alloc,MYF(0));
 
1574
  return;
 
1575
}
 
1576
 
 
1577
 
 
1578
QUICK_RANGE::QUICK_RANGE()
 
1579
  :min_key(0),max_key(0),min_length(0),max_length(0),
 
1580
   flag(NO_MIN_RANGE | NO_MAX_RANGE),
 
1581
  min_keypart_map(0), max_keypart_map(0)
 
1582
{}
 
1583
 
 
1584
SEL_ARG::SEL_ARG(SEL_ARG &arg) :Sql_alloc()
 
1585
{
 
1586
  type=arg.type;
 
1587
  min_flag=arg.min_flag;
 
1588
  max_flag=arg.max_flag;
 
1589
  maybe_flag=arg.maybe_flag;
 
1590
  maybe_null=arg.maybe_null;
 
1591
  part=arg.part;
 
1592
  field=arg.field;
 
1593
  min_value=arg.min_value;
 
1594
  max_value=arg.max_value;
 
1595
  next_key_part=arg.next_key_part;
 
1596
  use_count=1; elements=1;
 
1597
}
 
1598
 
 
1599
 
 
1600
inline void SEL_ARG::make_root()
 
1601
{
 
1602
  left=right= &null_element;
 
1603
  color=BLACK;
 
1604
  next=prev=0;
 
1605
  use_count=0; elements=1;
 
1606
}
 
1607
 
 
1608
SEL_ARG::SEL_ARG(Field *f,const uchar *min_value_arg,
 
1609
                 const uchar *max_value_arg)
 
1610
  :min_flag(0), max_flag(0), maybe_flag(0), maybe_null(f->real_maybe_null()),
 
1611
   elements(1), use_count(1), field(f), min_value((uchar*) min_value_arg),
 
1612
   max_value((uchar*) max_value_arg), next(0),prev(0),
 
1613
   next_key_part(0),color(BLACK),type(KEY_RANGE)
 
1614
{
 
1615
  left=right= &null_element;
 
1616
}
 
1617
 
 
1618
SEL_ARG::SEL_ARG(Field *field_,uint8_t part_,
 
1619
                 uchar *min_value_, uchar *max_value_,
 
1620
                 uint8_t min_flag_,uint8_t max_flag_,uint8_t maybe_flag_)
 
1621
  :min_flag(min_flag_),max_flag(max_flag_),maybe_flag(maybe_flag_),
 
1622
   part(part_),maybe_null(field_->real_maybe_null()), elements(1),use_count(1),
 
1623
   field(field_), min_value(min_value_), max_value(max_value_),
 
1624
   next(0),prev(0),next_key_part(0),color(BLACK),type(KEY_RANGE)
 
1625
{
 
1626
  left=right= &null_element;
 
1627
}
 
1628
 
 
1629
SEL_ARG *SEL_ARG::clone(RANGE_OPT_PARAM *param, SEL_ARG *new_parent, 
 
1630
                        SEL_ARG **next_arg)
 
1631
{
 
1632
  SEL_ARG *tmp;
 
1633
 
 
1634
  /* Bail out if we have already generated too many SEL_ARGs */
 
1635
  if (++param->alloced_sel_args > MAX_SEL_ARGS)
 
1636
    return 0;
 
1637
 
 
1638
  if (type != KEY_RANGE)
 
1639
  {
 
1640
    if (!(tmp= new (param->mem_root) SEL_ARG(type)))
 
1641
      return 0;                                 // out of memory
 
1642
    tmp->prev= *next_arg;                       // Link into next/prev chain
 
1643
    (*next_arg)->next=tmp;
 
1644
    (*next_arg)= tmp;
 
1645
  }
 
1646
  else
 
1647
  {
 
1648
    if (!(tmp= new (param->mem_root) SEL_ARG(field,part, min_value,max_value,
 
1649
                                             min_flag, max_flag, maybe_flag)))
 
1650
      return 0;                                 // OOM
 
1651
    tmp->parent=new_parent;
 
1652
    tmp->next_key_part=next_key_part;
 
1653
    if (left != &null_element)
 
1654
      if (!(tmp->left=left->clone(param, tmp, next_arg)))
 
1655
        return 0;                               // OOM
 
1656
 
 
1657
    tmp->prev= *next_arg;                       // Link into next/prev chain
 
1658
    (*next_arg)->next=tmp;
 
1659
    (*next_arg)= tmp;
 
1660
 
 
1661
    if (right != &null_element)
 
1662
      if (!(tmp->right= right->clone(param, tmp, next_arg)))
 
1663
        return 0;                               // OOM
 
1664
  }
 
1665
  increment_use_count(1);
 
1666
  tmp->color= color;
 
1667
  tmp->elements= this->elements;
 
1668
  return tmp;
 
1669
}
 
1670
 
 
1671
SEL_ARG *SEL_ARG::first()
 
1672
{
 
1673
  SEL_ARG *next_arg=this;
 
1674
  if (!next_arg->left)
 
1675
    return 0;                                   // MAYBE_KEY
 
1676
  while (next_arg->left != &null_element)
 
1677
    next_arg=next_arg->left;
 
1678
  return next_arg;
 
1679
}
 
1680
 
 
1681
SEL_ARG *SEL_ARG::last()
 
1682
{
 
1683
  SEL_ARG *next_arg=this;
 
1684
  if (!next_arg->right)
 
1685
    return 0;                                   // MAYBE_KEY
 
1686
  while (next_arg->right != &null_element)
 
1687
    next_arg=next_arg->right;
 
1688
  return next_arg;
 
1689
}
 
1690
 
 
1691
 
 
1692
/*
 
1693
  Check if a compare is ok, when one takes ranges in account
 
1694
  Returns -2 or 2 if the ranges where 'joined' like  < 2 and >= 2
 
1695
*/
 
1696
 
 
1697
static int sel_cmp(Field *field, uchar *a, uchar *b, uint8_t a_flag,
 
1698
                   uint8_t b_flag)
 
1699
{
 
1700
  int cmp;
 
1701
  /* First check if there was a compare to a min or max element */
 
1702
  if (a_flag & (NO_MIN_RANGE | NO_MAX_RANGE))
 
1703
  {
 
1704
    if ((a_flag & (NO_MIN_RANGE | NO_MAX_RANGE)) ==
 
1705
        (b_flag & (NO_MIN_RANGE | NO_MAX_RANGE)))
 
1706
      return 0;
 
1707
    return (a_flag & NO_MIN_RANGE) ? -1 : 1;
 
1708
  }
 
1709
  if (b_flag & (NO_MIN_RANGE | NO_MAX_RANGE))
 
1710
    return (b_flag & NO_MIN_RANGE) ? 1 : -1;
 
1711
 
 
1712
  if (field->real_maybe_null())                 // If null is part of key
 
1713
  {
 
1714
    if (*a != *b)
 
1715
    {
 
1716
      return *a ? -1 : 1;
 
1717
    }
 
1718
    if (*a)
 
1719
      goto end;                                 // NULL where equal
 
1720
    a++; b++;                                   // Skip NULL marker
 
1721
  }
 
1722
  cmp=field->key_cmp(a , b);
 
1723
  if (cmp) return cmp < 0 ? -1 : 1;             // The values differed
 
1724
 
 
1725
  // Check if the compared equal arguments was defined with open/closed range
 
1726
 end:
 
1727
  if (a_flag & (NEAR_MIN | NEAR_MAX))
 
1728
  {
 
1729
    if ((a_flag & (NEAR_MIN | NEAR_MAX)) == (b_flag & (NEAR_MIN | NEAR_MAX)))
 
1730
      return 0;
 
1731
    if (!(b_flag & (NEAR_MIN | NEAR_MAX)))
 
1732
      return (a_flag & NEAR_MIN) ? 2 : -2;
 
1733
    return (a_flag & NEAR_MIN) ? 1 : -1;
 
1734
  }
 
1735
  if (b_flag & (NEAR_MIN | NEAR_MAX))
 
1736
    return (b_flag & NEAR_MIN) ? -2 : 2;
 
1737
  return 0;                                     // The elements where equal
 
1738
}
 
1739
 
 
1740
 
 
1741
SEL_ARG *SEL_ARG::clone_tree(RANGE_OPT_PARAM *param)
 
1742
{
 
1743
  SEL_ARG tmp_link,*next_arg,*root;
 
1744
  next_arg= &tmp_link;
 
1745
  if (!(root= clone(param, (SEL_ARG *) 0, &next_arg)))
 
1746
    return 0;
 
1747
  next_arg->next=0;                             // Fix last link
 
1748
  tmp_link.next->prev=0;                        // Fix first link
 
1749
  if (root)                                     // If not OOM
 
1750
    root->use_count= 0;
 
1751
  return root;
 
1752
}
436
1753
 
437
1754
 
438
1755
/*
445
1762
      limit  Number of records that will be retrieved
446
1763
 
447
1764
  DESCRIPTION
448
 
    Find the best index that allows to retrieve first #limit records in the
 
1765
    Find the best index that allows to retrieve first #limit records in the 
449
1766
    given order cheaper then one would retrieve them using full table scan.
450
1767
 
451
1768
  IMPLEMENTATION
464
1781
    MAX_KEY if no such index was found.
465
1782
*/
466
1783
 
467
 
uint32_t optimizer::get_index_for_order(Table *table, order_st *order, ha_rows limit)
 
1784
uint get_index_for_order(TABLE *table, ORDER *order, ha_rows limit)
468
1785
{
469
 
  uint32_t idx;
470
 
  uint32_t match_key= MAX_KEY, match_key_len= MAX_KEY_LENGTH + 1;
471
 
  order_st *ord;
472
 
 
 
1786
  uint idx;
 
1787
  uint match_key= MAX_KEY, match_key_len= MAX_KEY_LENGTH + 1;
 
1788
  ORDER *ord;
 
1789
  
473
1790
  for (ord= order; ord; ord= ord->next)
474
1791
    if (!ord->asc)
475
1792
      return MAX_KEY;
476
1793
 
477
 
  for (idx= 0; idx < table->getShare()->sizeKeys(); idx++)
 
1794
  for (idx= 0; idx < table->s->keys; idx++)
478
1795
  {
479
 
    if (!(table->keys_in_use_for_query.test(idx)))
 
1796
    if (!(table->keys_in_use_for_query.is_set(idx)))
480
1797
      continue;
481
 
    KeyPartInfo *keyinfo= table->key_info[idx].key_part;
482
 
    uint32_t n_parts=  table->key_info[idx].key_parts;
483
 
    uint32_t partno= 0;
484
 
 
485
 
    /*
486
 
      The below check is sufficient considering we now have either BTREE
487
 
      indexes (records are returned in order for any index prefix) or HASH
 
1798
    KEY_PART_INFO *keyinfo= table->key_info[idx].key_part;
 
1799
    uint n_parts=  table->key_info[idx].key_parts;
 
1800
    uint partno= 0;
 
1801
    
 
1802
    /* 
 
1803
      The below check is sufficient considering we now have either BTREE 
 
1804
      indexes (records are returned in order for any index prefix) or HASH 
488
1805
      indexes (records are not returned in order for any index prefix).
489
1806
    */
490
 
    if (! (table->index_flags(idx) & HA_READ_ORDER))
 
1807
    if (!(table->file->index_flags(idx, 0, 1) & HA_READ_ORDER))
491
1808
      continue;
492
1809
    for (ord= order; ord && partno < n_parts; ord= ord->next, partno++)
493
1810
    {
494
1811
      Item *item= order->item[0];
495
 
      if (! (item->type() == Item::FIELD_ITEM &&
 
1812
      if (!(item->type() == Item::FIELD_ITEM &&
496
1813
           ((Item_field*)item)->field->eq(keyinfo[partno].field)))
497
1814
        break;
498
1815
    }
499
 
 
500
 
    if (! ord && table->key_info[idx].key_length < match_key_len)
 
1816
    
 
1817
    if (!ord && table->key_info[idx].key_length < match_key_len)
501
1818
    {
502
 
      /*
 
1819
      /* 
503
1820
        Ok, the ordering is compatible and this key is shorter then
504
1821
        previous match (we want shorter keys as we'll have to read fewer
505
1822
        index pages for the same number of records)
511
1828
 
512
1829
  if (match_key != MAX_KEY)
513
1830
  {
514
 
    /*
515
 
      Found an index that allows records to be retrieved in the requested
 
1831
    /* 
 
1832
      Found an index that allows records to be retrieved in the requested 
516
1833
      order. Now we'll check if using the index is cheaper then doing a table
517
1834
      scan.
518
1835
    */
519
 
    double full_scan_time= table->cursor->scan_time();
520
 
    double index_scan_time= table->cursor->read_time(match_key, 1, limit);
 
1836
    double full_scan_time= table->file->scan_time();
 
1837
    double index_scan_time= table->file->read_time(match_key, 1, limit);
521
1838
    if (index_scan_time > full_scan_time)
522
1839
      match_key= MAX_KEY;
523
1840
  }
525
1842
}
526
1843
 
527
1844
 
 
1845
/*
 
1846
  Table rows retrieval plan. Range optimizer creates QUICK_SELECT_I-derived
 
1847
  objects from table read plans.
 
1848
*/
 
1849
class TABLE_READ_PLAN
 
1850
{
 
1851
public:
 
1852
  /*
 
1853
    Plan read cost, with or without cost of full row retrieval, depending
 
1854
    on plan creation parameters.
 
1855
  */
 
1856
  double read_cost;
 
1857
  ha_rows records; /* estimate of #rows to be examined */
 
1858
 
 
1859
  /*
 
1860
    If true, the scan returns rows in rowid order. This is used only for
 
1861
    scans that can be both ROR and non-ROR.
 
1862
  */
 
1863
  bool is_ror;
 
1864
 
 
1865
  /*
 
1866
    Create quick select for this plan.
 
1867
    SYNOPSIS
 
1868
     make_quick()
 
1869
       param               Parameter from test_quick_select
 
1870
       retrieve_full_rows  If true, created quick select will do full record
 
1871
                           retrieval.
 
1872
       parent_alloc        Memory pool to use, if any.
 
1873
 
 
1874
    NOTES
 
1875
      retrieve_full_rows is ignored by some implementations.
 
1876
 
 
1877
    RETURN
 
1878
      created quick select
 
1879
      NULL on any error.
 
1880
  */
 
1881
  virtual QUICK_SELECT_I *make_quick(PARAM *param,
 
1882
                                     bool retrieve_full_rows,
 
1883
                                     MEM_ROOT *parent_alloc=NULL) = 0;
 
1884
 
 
1885
  /* Table read plans are allocated on MEM_ROOT and are never deleted */
 
1886
  static void *operator new(size_t size, MEM_ROOT *mem_root)
 
1887
  { return (void*) alloc_root(mem_root, (uint) size); }
 
1888
  static void operator delete(void *ptr __attribute__((unused)),
 
1889
                              size_t size __attribute__((unused)))
 
1890
    { TRASH(ptr, size); }
 
1891
  static void operator delete(void *ptr __attribute__((unused)),
 
1892
                              MEM_ROOT *mem_root __attribute__((unused)))
 
1893
    { /* Never called */ }
 
1894
  virtual ~TABLE_READ_PLAN() {}               /* Remove gcc warning */
 
1895
 
 
1896
};
 
1897
 
 
1898
class TRP_ROR_INTERSECT;
 
1899
class TRP_ROR_UNION;
 
1900
class TRP_INDEX_MERGE;
 
1901
 
 
1902
 
 
1903
/*
 
1904
  Plan for a QUICK_RANGE_SELECT scan.
 
1905
  TRP_RANGE::make_quick ignores retrieve_full_rows parameter because
 
1906
  QUICK_RANGE_SELECT doesn't distinguish between 'index only' scans and full
 
1907
  record retrieval scans.
 
1908
*/
 
1909
 
 
1910
class TRP_RANGE : public TABLE_READ_PLAN
 
1911
{
 
1912
public:
 
1913
  SEL_ARG *key; /* set of intervals to be used in "range" method retrieval */
 
1914
  uint     key_idx; /* key number in PARAM::key */
 
1915
  uint     mrr_flags; 
 
1916
  uint     mrr_buf_size;
 
1917
 
 
1918
  TRP_RANGE(SEL_ARG *key_arg, uint idx_arg, uint mrr_flags_arg)
 
1919
   : key(key_arg), key_idx(idx_arg), mrr_flags(mrr_flags_arg)
 
1920
  {}
 
1921
  virtual ~TRP_RANGE() {}                     /* Remove gcc warning */
 
1922
 
 
1923
  QUICK_SELECT_I *make_quick(PARAM *param,
 
1924
                             bool retrieve_full_rows __attribute__((unused)),
 
1925
                             MEM_ROOT *parent_alloc)
 
1926
  {
 
1927
    QUICK_RANGE_SELECT *quick;
 
1928
    if ((quick= get_quick_select(param, key_idx, key, mrr_flags, mrr_buf_size,
 
1929
                                 parent_alloc)))
 
1930
    {
 
1931
      quick->records= records;
 
1932
      quick->read_time= read_cost;
 
1933
    }
 
1934
    return(quick);
 
1935
  }
 
1936
};
 
1937
 
 
1938
 
 
1939
/* Plan for QUICK_ROR_INTERSECT_SELECT scan. */
 
1940
 
 
1941
class TRP_ROR_INTERSECT : public TABLE_READ_PLAN
 
1942
{
 
1943
public:
 
1944
  TRP_ROR_INTERSECT() {}                      /* Remove gcc warning */
 
1945
  virtual ~TRP_ROR_INTERSECT() {}             /* Remove gcc warning */
 
1946
  QUICK_SELECT_I *make_quick(PARAM *param, bool retrieve_full_rows,
 
1947
                             MEM_ROOT *parent_alloc);
 
1948
 
 
1949
  /* Array of pointers to ROR range scans used in this intersection */
 
1950
  struct st_ror_scan_info **first_scan;
 
1951
  struct st_ror_scan_info **last_scan; /* End of the above array */
 
1952
  struct st_ror_scan_info *cpk_scan;  /* Clustered PK scan, if there is one */
 
1953
  bool is_covering; /* true if no row retrieval phase is necessary */
 
1954
  double index_scan_costs; /* SUM(cost(index_scan)) */
 
1955
};
 
1956
 
 
1957
 
 
1958
/*
 
1959
  Plan for QUICK_ROR_UNION_SELECT scan.
 
1960
  QUICK_ROR_UNION_SELECT always retrieves full rows, so retrieve_full_rows
 
1961
  is ignored by make_quick.
 
1962
*/
 
1963
 
 
1964
class TRP_ROR_UNION : public TABLE_READ_PLAN
 
1965
{
 
1966
public:
 
1967
  TRP_ROR_UNION() {}                          /* Remove gcc warning */
 
1968
  virtual ~TRP_ROR_UNION() {}                 /* Remove gcc warning */
 
1969
  QUICK_SELECT_I *make_quick(PARAM *param, bool retrieve_full_rows,
 
1970
                             MEM_ROOT *parent_alloc);
 
1971
  TABLE_READ_PLAN **first_ror; /* array of ptrs to plans for merged scans */
 
1972
  TABLE_READ_PLAN **last_ror;  /* end of the above array */
 
1973
};
 
1974
 
 
1975
 
 
1976
/*
 
1977
  Plan for QUICK_INDEX_MERGE_SELECT scan.
 
1978
  QUICK_ROR_INTERSECT_SELECT always retrieves full rows, so retrieve_full_rows
 
1979
  is ignored by make_quick.
 
1980
*/
 
1981
 
 
1982
class TRP_INDEX_MERGE : public TABLE_READ_PLAN
 
1983
{
 
1984
public:
 
1985
  TRP_INDEX_MERGE() {}                        /* Remove gcc warning */
 
1986
  virtual ~TRP_INDEX_MERGE() {}               /* Remove gcc warning */
 
1987
  QUICK_SELECT_I *make_quick(PARAM *param, bool retrieve_full_rows,
 
1988
                             MEM_ROOT *parent_alloc);
 
1989
  TRP_RANGE **range_scans; /* array of ptrs to plans of merged scans */
 
1990
  TRP_RANGE **range_scans_end; /* end of the array */
 
1991
};
 
1992
 
 
1993
 
 
1994
/*
 
1995
  Plan for a QUICK_GROUP_MIN_MAX_SELECT scan. 
 
1996
*/
 
1997
 
 
1998
class TRP_GROUP_MIN_MAX : public TABLE_READ_PLAN
 
1999
{
 
2000
private:
 
2001
  bool have_min, have_max;
 
2002
  KEY_PART_INFO *min_max_arg_part;
 
2003
  uint group_prefix_len;
 
2004
  uint used_key_parts;
 
2005
  uint group_key_parts;
 
2006
  KEY *index_info;
 
2007
  uint index;
 
2008
  uint key_infix_len;
 
2009
  uchar key_infix[MAX_KEY_LENGTH];
 
2010
  SEL_TREE *range_tree; /* Represents all range predicates in the query. */
 
2011
  SEL_ARG  *index_tree; /* The SEL_ARG sub-tree corresponding to index_info. */
 
2012
  uint param_idx; /* Index of used key in param->key. */
 
2013
  /* Number of records selected by the ranges in index_tree. */
 
2014
public:
 
2015
  ha_rows quick_prefix_records;
 
2016
public:
 
2017
  TRP_GROUP_MIN_MAX(bool have_min_arg, bool have_max_arg,
 
2018
                    KEY_PART_INFO *min_max_arg_part_arg,
 
2019
                    uint group_prefix_len_arg, uint used_key_parts_arg,
 
2020
                    uint group_key_parts_arg, KEY *index_info_arg,
 
2021
                    uint index_arg, uint key_infix_len_arg,
 
2022
                    uchar *key_infix_arg,
 
2023
                    SEL_TREE *tree_arg, SEL_ARG *index_tree_arg,
 
2024
                    uint param_idx_arg, ha_rows quick_prefix_records_arg)
 
2025
  : have_min(have_min_arg), have_max(have_max_arg),
 
2026
    min_max_arg_part(min_max_arg_part_arg),
 
2027
    group_prefix_len(group_prefix_len_arg), used_key_parts(used_key_parts_arg),
 
2028
    group_key_parts(group_key_parts_arg), index_info(index_info_arg),
 
2029
    index(index_arg), key_infix_len(key_infix_len_arg), range_tree(tree_arg),
 
2030
    index_tree(index_tree_arg), param_idx(param_idx_arg),
 
2031
    quick_prefix_records(quick_prefix_records_arg)
 
2032
    {
 
2033
      if (key_infix_len)
 
2034
        memcpy(this->key_infix, key_infix_arg, key_infix_len);
 
2035
    }
 
2036
  virtual ~TRP_GROUP_MIN_MAX() {}             /* Remove gcc warning */
 
2037
 
 
2038
  QUICK_SELECT_I *make_quick(PARAM *param, bool retrieve_full_rows,
 
2039
                             MEM_ROOT *parent_alloc);
 
2040
};
 
2041
 
528
2042
 
529
2043
/*
530
2044
  Fill param->needed_fields with bitmap of fields used in the query.
540
2054
    1  Out of memory.
541
2055
*/
542
2056
 
543
 
static int fill_used_fields_bitmap(optimizer::Parameter *param)
 
2057
static int fill_used_fields_bitmap(PARAM *param)
544
2058
{
545
 
  Table *table= param->table;
 
2059
  TABLE *table= param->table;
546
2060
  my_bitmap_map *tmp;
547
 
  uint32_t pk;
548
 
  param->tmp_covered_fields.setBitmap(0);
549
 
  param->fields_bitmap_size= table->getShare()->column_bitmap_size;
550
 
  if (!(tmp= (my_bitmap_map*) param->mem_root->alloc_root(param->fields_bitmap_size)) ||
551
 
      param->needed_fields.init(tmp, table->getShare()->sizeFields()))
552
 
  {
 
2061
  uint pk;
 
2062
  param->tmp_covered_fields.bitmap= 0;
 
2063
  param->fields_bitmap_size= table->s->column_bitmap_size;
 
2064
  if (!(tmp= (my_bitmap_map*) alloc_root(param->mem_root,
 
2065
                                  param->fields_bitmap_size)) ||
 
2066
      bitmap_init(&param->needed_fields, tmp, table->s->fields, false))
553
2067
    return 1;
554
 
  }
555
2068
 
556
 
  param->needed_fields= *table->read_set;
 
2069
  bitmap_copy(&param->needed_fields, table->read_set);
557
2070
  bitmap_union(&param->needed_fields, table->write_set);
558
2071
 
559
 
  pk= param->table->getShare()->getPrimaryKey();
560
 
  if (pk != MAX_KEY && param->table->cursor->primary_key_is_clustered())
 
2072
  pk= param->table->s->primary_key;
 
2073
  if (pk != MAX_KEY && param->table->file->primary_key_is_clustered())
561
2074
  {
562
2075
    /* The table uses clustered PK and it is not internally generated */
563
 
    KeyPartInfo *key_part= param->table->key_info[pk].key_part;
564
 
    KeyPartInfo *key_part_end= key_part +
 
2076
    KEY_PART_INFO *key_part= param->table->key_info[pk].key_part;
 
2077
    KEY_PART_INFO *key_part_end= key_part +
565
2078
                                 param->table->key_info[pk].key_parts;
566
2079
    for (;key_part != key_part_end; ++key_part)
567
 
      param->needed_fields.clearBit(key_part->fieldnr-1);
 
2080
      bitmap_clear_bit(&param->needed_fields, key_part->fieldnr-1);
568
2081
  }
569
2082
  return 0;
570
2083
}
574
2087
  Test if a key can be used in different ranges
575
2088
 
576
2089
  SYNOPSIS
577
 
    SqlSelect::test_quick_select()
578
 
      session               Current thread
 
2090
    SQL_SELECT::test_quick_select()
 
2091
      thd               Current thread
579
2092
      keys_to_use       Keys to use for range retrieval
580
2093
      prev_tables       Tables assumed to be already read when the scan is
581
2094
                        performed (but not read at the moment of this call)
595
2108
 
596
2109
  IMPLEMENTATION
597
2110
    quick_condition_rows value is obtained as follows:
598
 
 
 
2111
      
599
2112
      It is a minimum of E(#output rows) for all considered table access
600
2113
      methods (range and index_merge accesses over various indexes).
601
 
 
 
2114
    
602
2115
    The obtained value is not a true E(#rows that satisfy table condition)
603
2116
    but rather a pessimistic estimate. To obtain a true E(#...) one would
604
2117
    need to combine estimates of various access methods, taking into account
605
2118
    correlations between sets of rows they will return.
606
 
 
 
2119
    
607
2120
    For example, if values of tbl.key1 and tbl.key2 are independent (a right
608
2121
    assumption if we have no information about their correlation) then the
609
2122
    correct estimate will be:
610
 
 
611
 
      E(#rows("tbl.key1 < c1 AND tbl.key2 < c2")) =
 
2123
    
 
2124
      E(#rows("tbl.key1 < c1 AND tbl.key2 < c2")) = 
612
2125
      = E(#rows(tbl.key1 < c1)) / total_rows(tbl) * E(#rows(tbl.key2 < c2)
613
2126
 
614
 
    which is smaller than
615
 
 
 
2127
    which is smaller than 
 
2128
      
616
2129
       MIN(E(#rows(tbl.key1 < c1), E(#rows(tbl.key2 < c2)))
617
2130
 
618
2131
    which is currently produced.
619
2132
 
620
2133
  TODO
621
2134
   * Change the value returned in quick_condition_rows from a pessimistic
622
 
     estimate to true E(#rows that satisfy table condition).
623
 
     (we can re-use some of E(#rows) calcuation code from index_merge/intersection
 
2135
     estimate to true E(#rows that satisfy table condition). 
 
2136
     (we can re-use some of E(#rows) calcuation code from index_merge/intersection 
624
2137
      for this)
625
 
 
 
2138
   
626
2139
   * Check if this function really needs to modify keys_to_use, and change the
627
2140
     code to pass it by reference if it doesn't.
628
2141
 
636
2149
    1 if found usable ranges and quick select has been successfully created.
637
2150
*/
638
2151
 
639
 
int optimizer::SqlSelect::test_quick_select(Session *session,
640
 
                                            key_map keys_to_use,
641
 
                                                                    table_map prev_tables,
642
 
                                                                    ha_rows limit,
643
 
                                            bool force_quick_range,
644
 
                                            bool ordered_output)
 
2152
int SQL_SELECT::test_quick_select(THD *thd, key_map keys_to_use,
 
2153
                                  table_map prev_tables,
 
2154
                                  ha_rows limit, bool force_quick_range, 
 
2155
                                  bool ordered_output)
645
2156
{
646
 
  uint32_t idx;
 
2157
  uint idx;
647
2158
  double scan_time;
648
 
  if (quick)
649
 
  {
650
 
    delete quick;
651
 
    quick= NULL;
652
 
  }
653
 
  needed_reg.reset();
654
 
  quick_keys.reset();
655
 
  if (keys_to_use.none())
656
 
    return 0;
657
 
  records= head->cursor->stats.records;
 
2159
  delete quick;
 
2160
  quick=0;
 
2161
  needed_reg.clear_all();
 
2162
  quick_keys.clear_all();
 
2163
  if (keys_to_use.is_clear_all())
 
2164
    return(0);
 
2165
  records= head->file->stats.records;
658
2166
  if (!records)
659
 
    records++;
 
2167
    records++;                                  /* purecov: inspected */
660
2168
  scan_time= (double) records / TIME_FOR_COMPARE + 1;
661
 
  read_time= (double) head->cursor->scan_time() + scan_time + 1.1;
 
2169
  read_time= (double) head->file->scan_time() + scan_time + 1.1;
662
2170
  if (head->force_index)
663
2171
    scan_time= read_time= DBL_MAX;
664
2172
  if (limit < records)
665
2173
    read_time= (double) records + scan_time + 1; // Force to use index
666
2174
  else if (read_time <= 2.0 && !force_quick_range)
667
 
    return 0;                           /* No need for quick select */
 
2175
    return(0);                          /* No need for quick select */
668
2176
 
669
 
  keys_to_use&= head->keys_in_use_for_query;
670
 
  if (keys_to_use.any())
 
2177
  keys_to_use.intersect(head->keys_in_use_for_query);
 
2178
  if (!keys_to_use.is_clear_all())
671
2179
  {
672
 
    memory::Root alloc;
673
 
    optimizer::SEL_TREE *tree= NULL;
 
2180
    MEM_ROOT alloc;
 
2181
    SEL_TREE *tree= NULL;
674
2182
    KEY_PART *key_parts;
675
 
    KeyInfo *key_info;
676
 
    optimizer::Parameter param;
 
2183
    KEY *key_info;
 
2184
    PARAM param;
677
2185
 
678
 
    if (check_stack_overrun(session, 2*STACK_MIN_SIZE, NULL))
679
 
      return 0;                           // Fatal error flag is set
 
2186
    if (check_stack_overrun(thd, 2*STACK_MIN_SIZE, NULL))
 
2187
      return(0);                           // Fatal error flag is set
680
2188
 
681
2189
    /* set up parameter that is passed to all functions */
682
 
    param.session= session;
683
 
    param.prev_tables= prev_tables | const_tables;
684
 
    param.read_tables= read_tables;
 
2190
    param.thd= thd;
 
2191
    param.baseflag= head->file->ha_table_flags();
 
2192
    param.prev_tables=prev_tables | const_tables;
 
2193
    param.read_tables=read_tables;
685
2194
    param.current_table= head->map;
686
2195
    param.table=head;
687
2196
    param.keys=0;
688
2197
    param.mem_root= &alloc;
689
 
    param.old_root= session->mem_root;
 
2198
    param.old_root= thd->mem_root;
690
2199
    param.needed_reg= &needed_reg;
691
2200
    param.imerge_cost_buff_size= 0;
692
2201
    param.using_real_indexes= true;
693
2202
    param.remove_jump_scans= true;
694
2203
    param.force_default_mrr= ordered_output;
695
2204
 
696
 
    session->no_errors=1;                               // Don't warn about NULL
697
 
    memory::init_sql_alloc(&alloc, session->variables.range_alloc_block_size, 0);
698
 
    if (!(param.key_parts= (KEY_PART*) alloc.alloc_root( sizeof(KEY_PART) * head->getShare()->key_parts)) ||
 
2205
    thd->no_errors=1;                           // Don't warn about NULL
 
2206
    init_sql_alloc(&alloc, thd->variables.range_alloc_block_size, 0);
 
2207
    if (!(param.key_parts= (KEY_PART*) alloc_root(&alloc,
 
2208
                                                  sizeof(KEY_PART)*
 
2209
                                                  head->s->key_parts)) ||
699
2210
        fill_used_fields_bitmap(&param))
700
2211
    {
701
 
      session->no_errors=0;
702
 
      alloc.free_root(MYF(0));                  // Return memory & allocator
703
 
 
704
 
      return 0;                         // Can't use range
 
2212
      thd->no_errors=0;
 
2213
      free_root(&alloc,MYF(0));                 // Return memory & allocator
 
2214
      return(0);                                // Can't use range
705
2215
    }
706
2216
    key_parts= param.key_parts;
707
 
    session->mem_root= &alloc;
 
2217
    thd->mem_root= &alloc;
708
2218
 
709
2219
    /*
710
2220
      Make an array with description of all key parts of all table keys.
711
2221
      This is used in get_mm_parts function.
712
2222
    */
713
2223
    key_info= head->key_info;
714
 
    for (idx=0 ; idx < head->getShare()->sizeKeys() ; idx++, key_info++)
 
2224
    for (idx=0 ; idx < head->s->keys ; idx++, key_info++)
715
2225
    {
716
 
      KeyPartInfo *key_part_info;
717
 
      if (! keys_to_use.test(idx))
 
2226
      KEY_PART_INFO *key_part_info;
 
2227
      if (!keys_to_use.is_set(idx))
718
2228
        continue;
719
2229
 
720
2230
      param.key[param.keys]=key_parts;
721
2231
      key_part_info= key_info->key_part;
722
 
      for (uint32_t part=0;
723
 
           part < key_info->key_parts;
724
 
           part++, key_parts++, key_part_info++)
 
2232
      for (uint part=0 ; part < key_info->key_parts ;
 
2233
           part++, key_parts++, key_part_info++)
725
2234
      {
726
 
        key_parts->key= param.keys;
727
 
        key_parts->part= part;
728
 
        key_parts->length= key_part_info->length;
729
 
        key_parts->store_length= key_part_info->store_length;
730
 
        key_parts->field= key_part_info->field;
731
 
        key_parts->null_bit= key_part_info->null_bit;
 
2235
        key_parts->key=          param.keys;
 
2236
        key_parts->part=         part;
 
2237
        key_parts->length=       key_part_info->length;
 
2238
        key_parts->store_length= key_part_info->store_length;
 
2239
        key_parts->field=        key_part_info->field;
 
2240
        key_parts->null_bit=     key_part_info->null_bit;
 
2241
        key_parts->image_type =  Field::itRAW;
732
2242
        /* Only HA_PART_KEY_SEG is used */
733
 
        key_parts->flag= (uint8_t) key_part_info->key_part_flag;
 
2243
        key_parts->flag=         (uint8_t) key_part_info->key_part_flag;
734
2244
      }
735
2245
      param.real_keynr[param.keys++]=idx;
736
2246
    }
738
2248
    param.alloced_sel_args= 0;
739
2249
 
740
2250
    /* Calculate cost of full index read for the shortest covering index */
741
 
    if (!head->covering_keys.none())
 
2251
    if (!head->covering_keys.is_clear_all())
742
2252
    {
743
 
      int key_for_use= head->find_shortest_key(&head->covering_keys);
744
 
      double key_read_time=
745
 
        param.table->cursor->index_only_read_time(key_for_use,
 
2253
      int key_for_use= find_shortest_key(head, &head->covering_keys);
 
2254
      double key_read_time= 
 
2255
        param.table->file->index_only_read_time(key_for_use, 
746
2256
                                                rows2double(records)) +
747
2257
        (double) records / TIME_FOR_COMPARE;
748
2258
      if (key_read_time < read_time)
749
2259
        read_time= key_read_time;
750
2260
    }
751
2261
 
752
 
    optimizer::TableReadPlan *best_trp= NULL;
753
 
    optimizer::GroupMinMaxReadPlan *group_trp= NULL;
 
2262
    TABLE_READ_PLAN *best_trp= NULL;
 
2263
    TRP_GROUP_MIN_MAX *group_trp;
754
2264
    double best_read_time= read_time;
755
2265
 
756
2266
    if (cond)
757
2267
    {
758
2268
      if ((tree= get_mm_tree(&param,cond)))
759
2269
      {
760
 
        if (tree->type == optimizer::SEL_TREE::IMPOSSIBLE)
 
2270
        if (tree->type == SEL_TREE::IMPOSSIBLE)
761
2271
        {
762
2272
          records=0L;                      /* Return -1 from this function. */
763
2273
          read_time= (double) HA_POS_ERROR;
767
2277
          If the tree can't be used for range scans, proceed anyway, as we
768
2278
          can construct a group-min-max quick select
769
2279
        */
770
 
        if (tree->type != optimizer::SEL_TREE::KEY && tree->type != optimizer::SEL_TREE::KEY_SMALLER)
 
2280
        if (tree->type != SEL_TREE::KEY && tree->type != SEL_TREE::KEY_SMALLER)
771
2281
          tree= NULL;
772
2282
      }
773
2283
    }
774
2284
 
775
2285
    /*
776
 
      Try to construct a QuickGroupMinMaxSelect.
 
2286
      Try to construct a QUICK_GROUP_MIN_MAX_SELECT.
777
2287
      Notice that it can be constructed no matter if there is a range tree.
778
2288
    */
779
2289
    group_trp= get_best_group_min_max(&param, tree);
780
2290
    if (group_trp)
781
2291
    {
782
2292
      param.table->quick_condition_rows= min(group_trp->records,
783
 
                                             head->cursor->stats.records);
 
2293
                                             head->file->stats.records);
784
2294
      if (group_trp->read_cost < best_read_time)
785
2295
      {
786
2296
        best_trp= group_trp;
796
2306
      */
797
2307
      if (tree->merges.is_empty())
798
2308
      {
799
 
        optimizer::RangeReadPlan *range_trp= NULL;
800
 
        optimizer::RorIntersectReadPlan *rori_trp= NULL;
 
2309
        TRP_RANGE         *range_trp;
 
2310
        TRP_ROR_INTERSECT *rori_trp;
801
2311
        bool can_build_covering= false;
802
2312
 
803
2313
        /* Get best 'range' plan and prepare data for making other plans */
804
 
        if ((range_trp= get_key_scans_params(session, &param, tree, false, true,
 
2314
        if ((range_trp= get_key_scans_params(&param, tree, false, true,
805
2315
                                             best_read_time)))
806
2316
        {
807
2317
          best_trp= range_trp;
809
2319
        }
810
2320
 
811
2321
        /*
812
 
          Simultaneous key scans and row deletes on several Cursor
 
2322
          Simultaneous key scans and row deletes on several handler
813
2323
          objects are not allowed so don't use ROR-intersection for
814
2324
          table deletes.
815
2325
        */
816
 
        if ((session->lex->sql_command != SQLCOM_DELETE))
 
2326
        if ((thd->lex->sql_command != SQLCOM_DELETE))
817
2327
        {
818
2328
          /*
819
2329
            Get best non-covering ROR-intersection plan and prepare data for
838
2348
      else
839
2349
      {
840
2350
        /* Try creating index_merge/ROR-union scan. */
841
 
        optimizer::SEL_IMERGE *imerge= NULL;
842
 
        optimizer::TableReadPlan *best_conj_trp= NULL;
843
 
        optimizer::TableReadPlan *new_conj_trp= NULL;
844
 
        List_iterator_fast<optimizer::SEL_IMERGE> it(tree->merges);
 
2351
        SEL_IMERGE *imerge;
 
2352
        TABLE_READ_PLAN *best_conj_trp= NULL, *new_conj_trp;
 
2353
        List_iterator_fast<SEL_IMERGE> it(tree->merges);
845
2354
        while ((imerge= it++))
846
2355
        {
847
 
          new_conj_trp= get_best_disjunct_quick(session, &param, imerge, best_read_time);
 
2356
          new_conj_trp= get_best_disjunct_quick(&param, imerge, best_read_time);
848
2357
          if (new_conj_trp)
849
 
            set_if_smaller(param.table->quick_condition_rows,
 
2358
            set_if_smaller(param.table->quick_condition_rows, 
850
2359
                           new_conj_trp->records);
851
2360
          if (!best_conj_trp || (new_conj_trp && new_conj_trp->read_cost <
852
2361
                                 best_conj_trp->read_cost))
857
2366
      }
858
2367
    }
859
2368
 
860
 
    session->mem_root= param.old_root;
 
2369
    thd->mem_root= param.old_root;
861
2370
 
862
2371
    /* If we got a read plan, create a quick select from it. */
863
2372
    if (best_trp)
864
2373
    {
865
2374
      records= best_trp->records;
866
 
      if (! (quick= best_trp->make_quick(&param, true)) || quick->init())
 
2375
      if (!(quick= best_trp->make_quick(&param, true)) || quick->init())
867
2376
      {
868
 
        /* quick can already be free here */
869
 
        if (quick)
870
 
        {
871
 
          delete quick;
872
 
          quick= NULL;
873
 
        }
 
2377
        delete quick;
 
2378
        quick= NULL;
874
2379
      }
875
2380
    }
876
2381
 
877
2382
  free_mem:
878
 
    alloc.free_root(MYF(0));                    // Return memory & allocator
879
 
    session->mem_root= param.old_root;
880
 
    session->no_errors=0;
 
2383
    free_root(&alloc,MYF(0));                   // Return memory & allocator
 
2384
    thd->mem_root= param.old_root;
 
2385
    thd->no_errors=0;
881
2386
  }
882
2387
 
883
2388
  /*
888
2393
}
889
2394
 
890
2395
/*
891
 
  Get best plan for a optimizer::SEL_IMERGE disjunctive expression.
 
2396
  Get best plan for a SEL_IMERGE disjunctive expression.
892
2397
  SYNOPSIS
893
2398
    get_best_disjunct_quick()
894
 
      session
895
2399
      param     Parameter from check_quick_select function
896
2400
      imerge    Expression to use
897
2401
      read_time Don't create scans with cost > read_time
915
2419
          {cost of ordinary clustered PK scan with n_ranges=n_rows}
916
2420
 
917
2421
      Otherwise, we use the following model to calculate costs:
918
 
      We need to retrieve n_rows rows from cursor that occupies n_blocks blocks.
 
2422
      We need to retrieve n_rows rows from file that occupies n_blocks blocks.
919
2423
      We assume that offsets of rows we need are independent variates with
920
2424
      uniform distribution in [0..max_file_offset] range.
921
2425
 
923
2427
      and "empty" if doesn't contain rows we need.
924
2428
 
925
2429
      Probability that a block is empty is (1 - 1/n_blocks)^n_rows (this
926
 
      applies to any block in cursor). Let x_i be a variate taking value 1 if
 
2430
      applies to any block in file). Let x_i be a variate taking value 1 if
927
2431
      block #i is empty and 0 otherwise.
928
2432
 
929
2433
      Then E(x_i) = (1 - 1/n_blocks)^n_rows;
954
2458
*/
955
2459
 
956
2460
static
957
 
optimizer::TableReadPlan *get_best_disjunct_quick(Session *session,
958
 
                                                  optimizer::Parameter *param,
959
 
                                                  optimizer::SEL_IMERGE *imerge,
960
 
                                                  double read_time)
 
2461
TABLE_READ_PLAN *get_best_disjunct_quick(PARAM *param, SEL_IMERGE *imerge,
 
2462
                                         double read_time)
961
2463
{
962
 
  optimizer::SEL_TREE **ptree= NULL;
963
 
  optimizer::IndexMergeReadPlan *imerge_trp= NULL;
964
 
  uint32_t n_child_scans= imerge->trees_next - imerge->trees;
965
 
  optimizer::RangeReadPlan **range_scans= NULL;
966
 
  optimizer::RangeReadPlan **cur_child= NULL;
967
 
  optimizer::RangeReadPlan **cpk_scan= NULL;
 
2464
  SEL_TREE **ptree;
 
2465
  TRP_INDEX_MERGE *imerge_trp= NULL;
 
2466
  uint n_child_scans= imerge->trees_next - imerge->trees;
 
2467
  TRP_RANGE **range_scans;
 
2468
  TRP_RANGE **cur_child;
 
2469
  TRP_RANGE **cpk_scan= NULL;
968
2470
  bool imerge_too_expensive= false;
969
2471
  double imerge_cost= 0.0;
970
2472
  ha_rows cpk_scan_records= 0;
971
2473
  ha_rows non_cpk_scan_records= 0;
972
 
  bool pk_is_clustered= param->table->cursor->primary_key_is_clustered();
 
2474
  bool pk_is_clustered= param->table->file->primary_key_is_clustered();
973
2475
  bool all_scans_ror_able= true;
974
2476
  bool all_scans_rors= true;
975
 
  uint32_t unique_calc_buff_size;
976
 
  optimizer::TableReadPlan **roru_read_plans= NULL;
977
 
  optimizer::TableReadPlan **cur_roru_plan= NULL;
 
2477
  uint unique_calc_buff_size;
 
2478
  TABLE_READ_PLAN **roru_read_plans;
 
2479
  TABLE_READ_PLAN **cur_roru_plan;
978
2480
  double roru_index_costs;
979
2481
  ha_rows roru_total_records;
980
2482
  double roru_intersect_part= 1.0;
981
2483
 
982
 
  if (! (range_scans= (optimizer::RangeReadPlan**)param->mem_root->alloc_root(sizeof(optimizer::RangeReadPlan*)* n_child_scans)))
983
 
  {
984
 
    return NULL;
985
 
  }
986
 
 
 
2484
  if (!(range_scans= (TRP_RANGE**)alloc_root(param->mem_root,
 
2485
                                             sizeof(TRP_RANGE*)*
 
2486
                                             n_child_scans)))
 
2487
    return(NULL);
987
2488
  /*
988
2489
    Collect best 'range' scan for each of disjuncts, and, while doing so,
989
2490
    analyze possibility of ROR scans. Also calculate some values needed by
993
2494
       ptree != imerge->trees_next;
994
2495
       ptree++, cur_child++)
995
2496
  {
996
 
    if (!(*cur_child= get_key_scans_params(session, param, *ptree, true, false, read_time)))
 
2497
    print_sel_tree(param, *ptree, &(*ptree)->keys_map, "tree in SEL_IMERGE");
 
2498
    if (!(*cur_child= get_key_scans_params(param, *ptree, true, false, read_time)))
997
2499
    {
998
2500
      /*
999
2501
        One of index scans in this index_merge is more expensive than entire
1000
2502
        table read for another available option. The entire index_merge (and
1001
2503
        any possible ROR-union) will be more expensive then, too. We continue
1002
 
        here only to update SqlSelect members.
 
2504
        here only to update SQL_SELECT members.
1003
2505
      */
1004
2506
      imerge_too_expensive= true;
1005
2507
    }
1011
2513
    all_scans_rors &= (*cur_child)->is_ror;
1012
2514
    if (pk_is_clustered &&
1013
2515
        param->real_keynr[(*cur_child)->key_idx] ==
1014
 
        param->table->getShare()->getPrimaryKey())
 
2516
        param->table->s->primary_key)
1015
2517
    {
1016
2518
      cpk_scan= cur_child;
1017
2519
      cpk_scan_records= (*cur_child)->records;
1021
2523
  }
1022
2524
 
1023
2525
  if (imerge_too_expensive || (imerge_cost > read_time) ||
1024
 
      ((non_cpk_scan_records+cpk_scan_records >= param->table->cursor->stats.records) && read_time != DBL_MAX))
 
2526
      ((non_cpk_scan_records+cpk_scan_records >= param->table->file->stats.records) && read_time != DBL_MAX))
1025
2527
  {
1026
2528
    /*
1027
2529
      Bail out if it is obvious that both index_merge and ROR-union will be
1028
2530
      more expensive
1029
2531
    */
1030
 
    return NULL;
 
2532
    return(NULL);
1031
2533
  }
1032
2534
  if (all_scans_rors)
1033
2535
  {
1034
 
    roru_read_plans= (optimizer::TableReadPlan **) range_scans;
 
2536
    roru_read_plans= (TABLE_READ_PLAN**)range_scans;
1035
2537
    goto skip_to_ror_scan;
1036
2538
  }
1037
2539
  if (cpk_scan)
1038
2540
  {
1039
2541
    /*
1040
2542
      Add one ROWID comparison for each row retrieved on non-CPK scan.  (it
1041
 
      is done in QuickRangeSelect::row_in_ranges)
 
2543
      is done in QUICK_RANGE_SELECT::row_in_ranges)
1042
2544
     */
1043
2545
    imerge_cost += non_cpk_scan_records / TIME_FOR_COMPARE_ROWID;
1044
2546
  }
1045
2547
 
1046
2548
  /* Calculate cost(rowid_to_row_scan) */
1047
2549
  {
1048
 
    optimizer::CostVector sweep_cost;
1049
 
    Join *join= param->session->lex->select_lex.join;
 
2550
    COST_VECT sweep_cost;
 
2551
    JOIN *join= param->thd->lex->select_lex.join;
1050
2552
    bool is_interrupted= test(join && join->tables == 1);
1051
2553
    get_sweep_read_cost(param->table, non_cpk_scan_records, is_interrupted,
1052
2554
                        &sweep_cost);
1058
2560
  /* Add Unique operations cost */
1059
2561
  unique_calc_buff_size=
1060
2562
    Unique::get_cost_calc_buff_size((ulong)non_cpk_scan_records,
1061
 
                                    param->table->cursor->ref_length,
1062
 
                                    param->session->variables.sortbuff_size);
 
2563
                                    param->table->file->ref_length,
 
2564
                                    param->thd->variables.sortbuff_size);
1063
2565
  if (param->imerge_cost_buff_size < unique_calc_buff_size)
1064
2566
  {
1065
 
    if (!(param->imerge_cost_buff= (uint*)param->mem_root->alloc_root(unique_calc_buff_size)))
1066
 
    {
1067
 
      return NULL;
1068
 
    }
1069
 
 
 
2567
    if (!(param->imerge_cost_buff= (uint*)alloc_root(param->mem_root,
 
2568
                                                     unique_calc_buff_size)))
 
2569
      return(NULL);
1070
2570
    param->imerge_cost_buff_size= unique_calc_buff_size;
1071
2571
  }
1072
2572
 
1073
2573
  imerge_cost +=
1074
 
    Unique::get_use_cost(param->imerge_cost_buff, (uint32_t)non_cpk_scan_records,
1075
 
                         param->table->cursor->ref_length,
1076
 
                         param->session->variables.sortbuff_size);
 
2574
    Unique::get_use_cost(param->imerge_cost_buff, (uint)non_cpk_scan_records,
 
2575
                         param->table->file->ref_length,
 
2576
                         param->thd->variables.sortbuff_size);
1077
2577
  if (imerge_cost < read_time)
1078
2578
  {
1079
 
    if ((imerge_trp= new (param->mem_root) optimizer::IndexMergeReadPlan))
 
2579
    if ((imerge_trp= new (param->mem_root)TRP_INDEX_MERGE))
1080
2580
    {
1081
2581
      imerge_trp->read_cost= imerge_cost;
1082
2582
      imerge_trp->records= non_cpk_scan_records + cpk_scan_records;
1083
2583
      imerge_trp->records= min(imerge_trp->records,
1084
 
                               param->table->cursor->stats.records);
 
2584
                               param->table->file->stats.records);
1085
2585
      imerge_trp->range_scans= range_scans;
1086
2586
      imerge_trp->range_scans_end= range_scans + n_child_scans;
1087
2587
      read_time= imerge_cost;
1089
2589
  }
1090
2590
 
1091
2591
build_ror_index_merge:
1092
 
  if (!all_scans_ror_able || param->session->lex->sql_command == SQLCOM_DELETE)
 
2592
  if (!all_scans_ror_able || param->thd->lex->sql_command == SQLCOM_DELETE)
1093
2593
    return(imerge_trp);
1094
2594
 
1095
2595
  /* Ok, it is possible to build a ROR-union, try it. */
1096
2596
  bool dummy;
1097
 
  if (! (roru_read_plans=
1098
 
          (optimizer::TableReadPlan **) param->mem_root->alloc_root(sizeof(optimizer::TableReadPlan*) * n_child_scans)))
1099
 
  {
1100
 
    return imerge_trp;
1101
 
  }
 
2597
  if (!(roru_read_plans=
 
2598
          (TABLE_READ_PLAN**)alloc_root(param->mem_root,
 
2599
                                        sizeof(TABLE_READ_PLAN*)*
 
2600
                                        n_child_scans)))
 
2601
    return(imerge_trp);
1102
2602
skip_to_ror_scan:
1103
2603
  roru_index_costs= 0.0;
1104
2604
  roru_total_records= 0;
1119
2619
    if ((*cur_child)->is_ror)
1120
2620
    {
1121
2621
      /* Ok, we have index_only cost, now get full rows scan cost */
1122
 
      cost= param->table->cursor->
 
2622
      cost= param->table->file->
1123
2623
              read_time(param->real_keynr[(*cur_child)->key_idx], 1,
1124
2624
                        (*cur_child)->records) +
1125
2625
              rows2double((*cur_child)->records) / TIME_FOR_COMPARE;
1127
2627
    else
1128
2628
      cost= read_time;
1129
2629
 
1130
 
    optimizer::TableReadPlan *prev_plan= *cur_child;
 
2630
    TABLE_READ_PLAN *prev_plan= *cur_child;
1131
2631
    if (!(*cur_roru_plan= get_best_ror_intersect(param, *ptree, cost,
1132
2632
                                                 &dummy)))
1133
2633
    {
1139
2639
    }
1140
2640
    else
1141
2641
      roru_index_costs +=
1142
 
        ((optimizer::RorIntersectReadPlan*)(*cur_roru_plan))->index_scan_costs;
 
2642
        ((TRP_ROR_INTERSECT*)(*cur_roru_plan))->index_scan_costs;
1143
2643
    roru_total_records += (*cur_roru_plan)->records;
1144
2644
    roru_intersect_part *= (*cur_roru_plan)->records /
1145
 
                           param->table->cursor->stats.records;
 
2645
                           param->table->file->stats.records;
1146
2646
  }
1147
2647
 
1148
2648
  /*
1152
2652
    in disjunction do not share key parts.
1153
2653
  */
1154
2654
  roru_total_records -= (ha_rows)(roru_intersect_part*
1155
 
                                  param->table->cursor->stats.records);
 
2655
                                  param->table->file->stats.records);
1156
2656
  /* ok, got a ROR read plan for each of the disjuncts
1157
2657
    Calculate cost:
1158
2658
    cost(index_union_scan(scan_1, ... scan_n)) =
1163
2663
  */
1164
2664
  double roru_total_cost;
1165
2665
  {
1166
 
    optimizer::CostVector sweep_cost;
1167
 
    Join *join= param->session->lex->select_lex.join;
 
2666
    COST_VECT sweep_cost;
 
2667
    JOIN *join= param->thd->lex->select_lex.join;
1168
2668
    bool is_interrupted= test(join && join->tables == 1);
1169
2669
    get_sweep_read_cost(param->table, roru_total_records, is_interrupted,
1170
2670
                        &sweep_cost);
1174
2674
                     sweep_cost.total_cost();
1175
2675
  }
1176
2676
 
1177
 
  optimizer::RorUnionReadPlan *roru= NULL;
 
2677
  TRP_ROR_UNION* roru;
1178
2678
  if (roru_total_cost < read_time)
1179
2679
  {
1180
 
    if ((roru= new (param->mem_root) optimizer::RorUnionReadPlan))
 
2680
    if ((roru= new (param->mem_root) TRP_ROR_UNION))
1181
2681
    {
1182
2682
      roru->first_ror= roru_read_plans;
1183
2683
      roru->last_ror= roru_read_plans + n_child_scans;
1184
2684
      roru->read_cost= roru_total_cost;
1185
2685
      roru->records= roru_total_records;
1186
 
      return roru;
 
2686
      return(roru);
1187
2687
    }
1188
2688
  }
1189
2689
  return(imerge_trp);
1192
2692
 
1193
2693
typedef struct st_ror_scan_info
1194
2694
{
1195
 
  uint32_t      idx;      /* # of used key in param->keys */
1196
 
  uint32_t      keynr;    /* # of used key in table */
 
2695
  uint      idx;      /* # of used key in param->keys */
 
2696
  uint      keynr;    /* # of used key in table */
1197
2697
  ha_rows   records;  /* estimate of # records this scan will return */
1198
2698
 
1199
2699
  /* Set of intervals over key fields that will be used for row retrieval. */
1200
 
  optimizer::SEL_ARG   *sel_arg;
 
2700
  SEL_ARG   *sel_arg;
1201
2701
 
1202
2702
  /* Fields used in the query and covered by this ROR scan. */
1203
 
  MyBitmap covered_fields;
1204
 
  uint32_t      used_fields_covered; /* # of set bits in covered_fields */
 
2703
  MY_BITMAP covered_fields;
 
2704
  uint      used_fields_covered; /* # of set bits in covered_fields */
1205
2705
  int       key_rec_length; /* length of key record (including rowid) */
1206
2706
 
1207
2707
  /*
1209
2709
    (assuming there is no need to access full table records)
1210
2710
  */
1211
2711
  double    index_read_cost;
1212
 
  uint32_t      first_uncovered_field; /* first unused bit in covered_fields */
1213
 
  uint32_t      key_components; /* # of parts in the key */
 
2712
  uint      first_uncovered_field; /* first unused bit in covered_fields */
 
2713
  uint      key_components; /* # of parts in the key */
1214
2714
} ROR_SCAN_INFO;
1215
2715
 
1216
2716
 
1230
2730
*/
1231
2731
 
1232
2732
static
1233
 
ROR_SCAN_INFO *make_ror_scan(const optimizer::Parameter *param, int idx, optimizer::SEL_ARG *sel_arg)
 
2733
ROR_SCAN_INFO *make_ror_scan(const PARAM *param, int idx, SEL_ARG *sel_arg)
1234
2734
{
1235
2735
  ROR_SCAN_INFO *ror_scan;
1236
2736
  my_bitmap_map *bitmap_buf;
1237
 
 
1238
 
  uint32_t keynr;
1239
 
 
1240
 
  if (!(ror_scan= (ROR_SCAN_INFO*)param->mem_root->alloc_root(sizeof(ROR_SCAN_INFO))))
1241
 
    return NULL;
 
2737
  uint keynr;
 
2738
 
 
2739
  if (!(ror_scan= (ROR_SCAN_INFO*)alloc_root(param->mem_root,
 
2740
                                             sizeof(ROR_SCAN_INFO))))
 
2741
    return(NULL);
1242
2742
 
1243
2743
  ror_scan->idx= idx;
1244
2744
  ror_scan->keynr= keynr= param->real_keynr[idx];
1245
2745
  ror_scan->key_rec_length= (param->table->key_info[keynr].key_length +
1246
 
                             param->table->cursor->ref_length);
 
2746
                             param->table->file->ref_length);
1247
2747
  ror_scan->sel_arg= sel_arg;
1248
2748
  ror_scan->records= param->table->quick_rows[keynr];
1249
2749
 
1250
 
  if (!(bitmap_buf= (my_bitmap_map*) param->mem_root->alloc_root(param->fields_bitmap_size)))
1251
 
  {
1252
 
    return NULL;
1253
 
  }
1254
 
 
1255
 
  if (ror_scan->covered_fields.init(bitmap_buf, param->table->getShare()->sizeFields()))
1256
 
  {
1257
 
    return NULL;
1258
 
  }
1259
 
  ror_scan->covered_fields.clearAll();
1260
 
 
1261
 
  KeyPartInfo *key_part= param->table->key_info[keynr].key_part;
1262
 
  KeyPartInfo *key_part_end= key_part +
 
2750
  if (!(bitmap_buf= (my_bitmap_map*) alloc_root(param->mem_root,
 
2751
                                                param->fields_bitmap_size)))
 
2752
    return(NULL);
 
2753
 
 
2754
  if (bitmap_init(&ror_scan->covered_fields, bitmap_buf,
 
2755
                  param->table->s->fields, false))
 
2756
    return(NULL);
 
2757
  bitmap_clear_all(&ror_scan->covered_fields);
 
2758
 
 
2759
  KEY_PART_INFO *key_part= param->table->key_info[keynr].key_part;
 
2760
  KEY_PART_INFO *key_part_end= key_part +
1263
2761
                               param->table->key_info[keynr].key_parts;
1264
2762
  for (;key_part != key_part_end; ++key_part)
1265
2763
  {
1266
 
    if (param->needed_fields.isBitSet(key_part->fieldnr-1))
1267
 
      ror_scan->covered_fields.setBit(key_part->fieldnr-1);
 
2764
    if (bitmap_is_set(&param->needed_fields, key_part->fieldnr-1))
 
2765
      bitmap_set_bit(&ror_scan->covered_fields, key_part->fieldnr-1);
1268
2766
  }
1269
2767
  double rows= rows2double(param->table->quick_rows[ror_scan->keynr]);
1270
2768
  ror_scan->index_read_cost=
1271
 
    param->table->cursor->index_only_read_time(ror_scan->keynr, rows);
 
2769
    param->table->file->index_only_read_time(ror_scan->keynr, rows);
1272
2770
  return(ror_scan);
1273
2771
}
1274
2772
 
1293
2791
  return (val1 < val2)? -1: (val1 == val2)? 0 : 1;
1294
2792
}
1295
2793
 
1296
 
 
1297
2794
/*
1298
2795
  Compare two ROR_SCAN_INFO** by
1299
2796
   (#covered fields in F desc,
1328
2825
  return 0;
1329
2826
}
1330
2827
 
 
2828
 
1331
2829
/* Auxiliary structure for incremental ROR-intersection creation */
1332
2830
typedef struct
1333
2831
{
1334
 
  const optimizer::Parameter *param;
1335
 
  MyBitmap covered_fields; /* union of fields covered by all scans */
 
2832
  const PARAM *param;
 
2833
  MY_BITMAP covered_fields; /* union of fields covered by all scans */
1336
2834
  /*
1337
2835
    Fraction of table records that satisfies conditions of all scans.
1338
2836
    This is the number of full records that will be retrieved if a
1361
2859
*/
1362
2860
 
1363
2861
static
1364
 
ROR_INTERSECT_INFO* ror_intersect_init(const optimizer::Parameter *param)
 
2862
ROR_INTERSECT_INFO* ror_intersect_init(const PARAM *param)
1365
2863
{
1366
2864
  ROR_INTERSECT_INFO *info;
1367
2865
  my_bitmap_map* buf;
1368
 
  if (!(info= (ROR_INTERSECT_INFO*)param->mem_root->alloc_root(sizeof(ROR_INTERSECT_INFO))))
 
2866
  if (!(info= (ROR_INTERSECT_INFO*)alloc_root(param->mem_root,
 
2867
                                              sizeof(ROR_INTERSECT_INFO))))
1369
2868
    return NULL;
1370
2869
  info->param= param;
1371
 
  if (!(buf= (my_bitmap_map*) param->mem_root->alloc_root(param->fields_bitmap_size)))
 
2870
  if (!(buf= (my_bitmap_map*) alloc_root(param->mem_root,
 
2871
                                         param->fields_bitmap_size)))
1372
2872
    return NULL;
1373
 
  if (info->covered_fields.init(buf, param->table->getShare()->sizeFields()))
 
2873
  if (bitmap_init(&info->covered_fields, buf, param->table->s->fields,
 
2874
                  false))
1374
2875
    return NULL;
1375
2876
  info->is_covering= false;
1376
2877
  info->index_scan_costs= 0.0;
1377
2878
  info->index_records= 0;
1378
 
  info->out_rows= (double) param->table->cursor->stats.records;
1379
 
  info->covered_fields.clearAll();
 
2879
  info->out_rows= (double) param->table->file->stats.records;
 
2880
  bitmap_clear_all(&info->covered_fields);
1380
2881
  return info;
1381
2882
}
1382
2883
 
1383
 
static void ror_intersect_cpy(ROR_INTERSECT_INFO *dst,
1384
 
                              const ROR_INTERSECT_INFO *src)
 
2884
void ror_intersect_cpy(ROR_INTERSECT_INFO *dst, const ROR_INTERSECT_INFO *src)
1385
2885
{
1386
2886
  dst->param= src->param;
1387
 
  dst->covered_fields= src->covered_fields;
 
2887
  memcpy(dst->covered_fields.bitmap, src->covered_fields.bitmap, 
 
2888
         no_bytes_in_map(&src->covered_fields));
1388
2889
  dst->out_rows= src->out_rows;
1389
2890
  dst->is_covering= src->is_covering;
1390
2891
  dst->index_records= src->index_records;
1398
2899
 
1399
2900
  SYNOPSIS
1400
2901
    ror_scan_selectivity()
1401
 
      info  ROR-interection
 
2902
      info  ROR-interection 
1402
2903
      scan  ROR scan
1403
 
 
 
2904
      
1404
2905
  NOTES
1405
2906
    Suppose we have a condition on several keys
1406
2907
    cond=k_11=c_11 AND k_12=c_12 AND ...  // parts of first key
1483
2984
    Selectivity of given ROR scan.
1484
2985
*/
1485
2986
 
1486
 
static double ror_scan_selectivity(const ROR_INTERSECT_INFO *info,
 
2987
static double ror_scan_selectivity(const ROR_INTERSECT_INFO *info, 
1487
2988
                                   const ROR_SCAN_INFO *scan)
1488
2989
{
1489
2990
  double selectivity_mult= 1.0;
1490
 
  KeyPartInfo *key_part= info->param->table->key_info[scan->keynr].key_part;
1491
 
  unsigned char key_val[MAX_KEY_LENGTH+MAX_FIELD_WIDTH]; /* key values tuple */
1492
 
  unsigned char *key_ptr= key_val;
1493
 
  optimizer::SEL_ARG *sel_arg= NULL;
1494
 
  optimizer::SEL_ARG *tuple_arg= NULL;
 
2991
  KEY_PART_INFO *key_part= info->param->table->key_info[scan->keynr].key_part;
 
2992
  uchar key_val[MAX_KEY_LENGTH+MAX_FIELD_WIDTH]; /* key values tuple */
 
2993
  uchar *key_ptr= key_val;
 
2994
  SEL_ARG *sel_arg, *tuple_arg= NULL;
1495
2995
  key_part_map keypart_map= 0;
1496
2996
  bool cur_covered;
1497
 
  bool prev_covered= test(info->covered_fields.isBitSet(key_part->fieldnr-1));
 
2997
  bool prev_covered= test(bitmap_is_set(&info->covered_fields,
 
2998
                                        key_part->fieldnr-1));
1498
2999
  key_range min_range;
1499
3000
  key_range max_range;
1500
3001
  min_range.key= key_val;
1501
3002
  min_range.flag= HA_READ_KEY_EXACT;
1502
3003
  max_range.key= key_val;
1503
3004
  max_range.flag= HA_READ_AFTER_KEY;
1504
 
  ha_rows prev_records= info->param->table->cursor->stats.records;
 
3005
  ha_rows prev_records= info->param->table->file->stats.records;
1505
3006
 
1506
3007
  for (sel_arg= scan->sel_arg; sel_arg;
1507
3008
       sel_arg= sel_arg->next_key_part)
1508
3009
  {
1509
 
    cur_covered=
1510
 
      test(info->covered_fields.isBitSet(key_part[sel_arg->part].fieldnr-1));
 
3010
    cur_covered= test(bitmap_is_set(&info->covered_fields,
 
3011
                                    key_part[sel_arg->part].fieldnr-1));
1511
3012
    if (cur_covered != prev_covered)
1512
3013
    {
1513
3014
      /* create (part1val, ..., part{n-1}val) tuple. */
1528
3029
      }
1529
3030
      min_range.length= max_range.length= (size_t) (key_ptr - key_val);
1530
3031
      min_range.keypart_map= max_range.keypart_map= keypart_map;
1531
 
      records= (info->param->table->cursor->
 
3032
      records= (info->param->table->file->
1532
3033
                records_in_range(scan->keynr, &min_range, &max_range));
1533
3034
      if (cur_covered)
1534
3035
      {
1585
3086
 
1586
3087
    E(rows_to_retrieve) = #rows_in_table * ror_scan_selectivity(null, scan1) *
1587
3088
                           ror_scan_selectivity({scan1}, scan2) * ... *
1588
 
                           ror_scan_selectivity({scan1,...}, scanN).
 
3089
                           ror_scan_selectivity({scan1,...}, scanN). 
1589
3090
  RETURN
1590
3091
    true   ROR scan added to ROR-intersection, cost updated.
1591
3092
    false  It doesn't make sense to add this ROR scan to this ROR-intersection.
1600
3101
  if (selectivity_mult == 1.0)
1601
3102
  {
1602
3103
    /* Don't add this scan if it doesn't improve selectivity. */
1603
 
    return false;
 
3104
    return(false);
1604
3105
  }
1605
 
 
 
3106
  
1606
3107
  info->out_rows *= selectivity_mult;
1607
 
 
 
3108
  
1608
3109
  if (is_cpk_scan)
1609
3110
  {
1610
3111
    /*
1611
 
      CPK scan is used to filter out rows. We apply filtering for
 
3112
      CPK scan is used to filter out rows. We apply filtering for 
1612
3113
      each record of every scan. Assuming 1/TIME_FOR_COMPARE_ROWID
1613
3114
      per check this gives us:
1614
3115
    */
1615
 
    info->index_scan_costs += rows2double(info->index_records) /
 
3116
    info->index_scan_costs += rows2double(info->index_records) / 
1616
3117
                              TIME_FOR_COMPARE_ROWID;
1617
3118
  }
1618
3119
  else
1630
3131
  info->total_cost= info->index_scan_costs;
1631
3132
  if (!info->is_covering)
1632
3133
  {
1633
 
    optimizer::CostVector sweep_cost;
1634
 
    Join *join= info->param->session->lex->select_lex.join;
 
3134
    COST_VECT sweep_cost;
 
3135
    JOIN *join= info->param->thd->lex->select_lex.join;
1635
3136
    bool is_interrupted= test(join && join->tables == 1);
1636
3137
    get_sweep_read_cost(info->param->table, double2rows(info->out_rows),
1637
3138
                        is_interrupted, &sweep_cost);
1638
3139
    info->total_cost += sweep_cost.total_cost();
1639
3140
  }
1640
 
  return true;
1641
 
}
1642
 
 
1643
 
 
1644
 
/*
1645
 
  Get best covering ROR-intersection.
1646
 
  SYNOPSIS
1647
 
    get_best_covering_ror_intersect()
1648
 
      param     Parameter from test_quick_select function.
1649
 
      tree      optimizer::SEL_TREE with sets of intervals for different keys.
1650
 
      read_time Don't return table read plans with cost > read_time.
1651
 
 
1652
 
  RETURN
1653
 
    Best covering ROR-intersection plan
1654
 
    NULL if no plan found.
1655
 
 
1656
 
  NOTES
1657
 
    get_best_ror_intersect must be called for a tree before calling this
1658
 
    function for it.
1659
 
    This function invalidates tree->ror_scans member values.
1660
 
 
1661
 
  The following approximate algorithm is used:
1662
 
    I=set of all covering indexes
1663
 
    F=set of all fields to cover
1664
 
    S={}
1665
 
 
1666
 
    do
1667
 
    {
1668
 
      Order I by (#covered fields in F desc,
1669
 
                  #components asc,
1670
 
                  number of first not covered component asc);
1671
 
      F=F-covered by first(I);
1672
 
      S=S+first(I);
1673
 
      I=I-first(I);
1674
 
    } while F is not empty.
1675
 
*/
1676
 
 
1677
 
static
1678
 
optimizer::RorIntersectReadPlan *get_best_covering_ror_intersect(optimizer::Parameter *param,
1679
 
                                                            optimizer::SEL_TREE *tree,
1680
 
                                                            double read_time)
1681
 
{
1682
 
  ROR_SCAN_INFO **ror_scan_mark;
1683
 
  ROR_SCAN_INFO **ror_scans_end= tree->ror_scans_end;
1684
 
 
1685
 
  for (ROR_SCAN_INFO **scan= tree->ror_scans; scan != ror_scans_end; ++scan)
1686
 
    (*scan)->key_components=
1687
 
      param->table->key_info[(*scan)->keynr].key_parts;
1688
 
 
1689
 
  /*
1690
 
    Run covering-ROR-search algorithm.
1691
 
    Assume set I is [ror_scan .. ror_scans_end)
1692
 
  */
1693
 
 
1694
 
  /*I=set of all covering indexes */
1695
 
  ror_scan_mark= tree->ror_scans;
1696
 
 
1697
 
  MyBitmap *covered_fields= &param->tmp_covered_fields;
1698
 
  if (! covered_fields->getBitmap())
1699
 
  {
1700
 
    my_bitmap_map *tmp_bitmap= (my_bitmap_map*)param->mem_root->alloc_root(param->fields_bitmap_size);
1701
 
    covered_fields->setBitmap(tmp_bitmap);
1702
 
  }
1703
 
  if (! covered_fields->getBitmap() ||
1704
 
      covered_fields->init(covered_fields->getBitmap(),
1705
 
                           param->table->getShare()->sizeFields()))
1706
 
    return 0;
1707
 
  covered_fields->clearAll();
1708
 
 
1709
 
  double total_cost= 0.0f;
1710
 
  ha_rows records=0;
1711
 
  bool all_covered;
1712
 
 
1713
 
  do
1714
 
  {
1715
 
    /*
1716
 
      Update changed sorting info:
1717
 
        #covered fields,
1718
 
        number of first not covered component
1719
 
      Calculate and save these values for each of remaining scans.
1720
 
    */
1721
 
    for (ROR_SCAN_INFO **scan= ror_scan_mark; scan != ror_scans_end; ++scan)
1722
 
    {
1723
 
      bitmap_subtract(&(*scan)->covered_fields, covered_fields);
1724
 
      (*scan)->used_fields_covered=
1725
 
        (*scan)->covered_fields.getBitsSet();
1726
 
      (*scan)->first_uncovered_field=
1727
 
        (*scan)->covered_fields.getFirst();
1728
 
    }
1729
 
 
1730
 
    internal::my_qsort(ror_scan_mark, ror_scans_end-ror_scan_mark,
1731
 
                       sizeof(ROR_SCAN_INFO*),
1732
 
                       (qsort_cmp)cmp_ror_scan_info_covering);
1733
 
 
1734
 
    /* I=I-first(I) */
1735
 
    total_cost += (*ror_scan_mark)->index_read_cost;
1736
 
    records += (*ror_scan_mark)->records;
1737
 
    if (total_cost > read_time)
1738
 
      return NULL;
1739
 
    /* F=F-covered by first(I) */
1740
 
    bitmap_union(covered_fields, &(*ror_scan_mark)->covered_fields);
1741
 
    all_covered= bitmap_is_subset(&param->needed_fields, covered_fields);
1742
 
  } while ((++ror_scan_mark < ror_scans_end) && !all_covered);
1743
 
 
1744
 
  if (!all_covered || (ror_scan_mark - tree->ror_scans) == 1)
1745
 
    return NULL;
1746
 
 
1747
 
  /*
1748
 
    Ok, [tree->ror_scans .. ror_scan) holds covering index_intersection with
1749
 
    cost total_cost.
1750
 
  */
1751
 
  /* Add priority queue use cost. */
1752
 
  total_cost += rows2double(records)*
1753
 
                log((double)(ror_scan_mark - tree->ror_scans)) /
1754
 
                (TIME_FOR_COMPARE_ROWID * M_LN2);
1755
 
 
1756
 
  if (total_cost > read_time)
1757
 
    return NULL;
1758
 
 
1759
 
  optimizer::RorIntersectReadPlan *trp= NULL;
1760
 
  if (! (trp= new (param->mem_root) optimizer::RorIntersectReadPlan))
1761
 
  {
1762
 
    return trp;
1763
 
  }
1764
 
 
1765
 
  uint32_t best_num= (ror_scan_mark - tree->ror_scans);
1766
 
  if (!(trp->first_scan= (ROR_SCAN_INFO**)param->mem_root->alloc_root(sizeof(ROR_SCAN_INFO*)* best_num)))
1767
 
    return NULL;
1768
 
  memcpy(trp->first_scan, tree->ror_scans, best_num*sizeof(ROR_SCAN_INFO*));
1769
 
  trp->last_scan=  trp->first_scan + best_num;
1770
 
  trp->is_covering= true;
1771
 
  trp->read_cost= total_cost;
1772
 
  trp->records= records;
1773
 
  trp->cpk_scan= NULL;
1774
 
  set_if_smaller(param->table->quick_condition_rows, records);
1775
 
 
1776
 
  return(trp);
 
3141
  return(true);
1777
3142
}
1778
3143
 
1779
3144
 
1793
3158
 
1794
3159
  NOTES
1795
3160
    get_key_scans_params must be called before this function can be called.
1796
 
 
 
3161
    
1797
3162
    When this function is called by ROR-union construction algorithm it
1798
3163
    assumes it is building an uncovered ROR-intersection (and thus # of full
1799
3164
    records to be retrieved is wrong here). This is a hack.
1815
3180
        firstR= R - first(R);
1816
3181
        if (!selectivity(S + firstR < selectivity(S)))
1817
3182
          continue;
1818
 
 
 
3183
          
1819
3184
        S= S + first(R);
1820
3185
        if (cost(S) < min_cost)
1821
3186
        {
1842
3207
*/
1843
3208
 
1844
3209
static
1845
 
optimizer::RorIntersectReadPlan *get_best_ror_intersect(const optimizer::Parameter *param,
1846
 
                                                   optimizer::SEL_TREE *tree,
1847
 
                                                   double read_time,
1848
 
                                                   bool *are_all_covering)
 
3210
TRP_ROR_INTERSECT *get_best_ror_intersect(const PARAM *param, SEL_TREE *tree,
 
3211
                                          double read_time,
 
3212
                                          bool *are_all_covering)
1849
3213
{
1850
 
  uint32_t idx= 0;
 
3214
  uint idx;
1851
3215
  double min_cost= DBL_MAX;
1852
3216
 
1853
 
  if ((tree->n_ror_scans < 2) || ! param->table->cursor->stats.records)
1854
 
    return NULL;
 
3217
  if ((tree->n_ror_scans < 2) || !param->table->file->stats.records)
 
3218
    return(NULL);
1855
3219
 
1856
3220
  /*
1857
 
    Step1: Collect ROR-able SEL_ARGs and create ROR_SCAN_INFO for each of
 
3221
    Step1: Collect ROR-able SEL_ARGs and create ROR_SCAN_INFO for each of 
1858
3222
    them. Also find and save clustered PK scan if there is one.
1859
3223
  */
1860
 
  ROR_SCAN_INFO **cur_ror_scan= NULL;
 
3224
  ROR_SCAN_INFO **cur_ror_scan;
1861
3225
  ROR_SCAN_INFO *cpk_scan= NULL;
1862
 
  uint32_t cpk_no= 0;
 
3226
  uint cpk_no;
1863
3227
  bool cpk_scan_used= false;
1864
3228
 
1865
 
  if (! (tree->ror_scans= (ROR_SCAN_INFO**)param->mem_root->alloc_root(sizeof(ROR_SCAN_INFO*)* param->keys)))
1866
 
  {
 
3229
  if (!(tree->ror_scans= (ROR_SCAN_INFO**)alloc_root(param->mem_root,
 
3230
                                                     sizeof(ROR_SCAN_INFO*)*
 
3231
                                                     param->keys)))
1867
3232
    return NULL;
1868
 
  }
1869
 
  cpk_no= ((param->table->cursor->primary_key_is_clustered()) ?
1870
 
           param->table->getShare()->getPrimaryKey() : MAX_KEY);
 
3233
  cpk_no= ((param->table->file->primary_key_is_clustered()) ?
 
3234
           param->table->s->primary_key : MAX_KEY);
1871
3235
 
1872
3236
  for (idx= 0, cur_ror_scan= tree->ror_scans; idx < param->keys; idx++)
1873
3237
  {
1874
3238
    ROR_SCAN_INFO *scan;
1875
 
    if (! tree->ror_scans_map.test(idx))
 
3239
    if (!tree->ror_scans_map.is_set(idx))
1876
3240
      continue;
1877
3241
    if (!(scan= make_ror_scan(param, idx, tree->keys[idx])))
1878
3242
      return NULL;
1886
3250
  }
1887
3251
 
1888
3252
  tree->ror_scans_end= cur_ror_scan;
 
3253
  print_ror_scans_arr(param->table, "original",
 
3254
                                          tree->ror_scans,
 
3255
                                          tree->ror_scans_end);
1889
3256
  /*
1890
3257
    Ok, [ror_scans, ror_scans_end) is array of ptrs to initialized
1891
3258
    ROR_SCAN_INFO's.
1892
3259
    Step 2: Get best ROR-intersection using an approximate algorithm.
1893
3260
  */
1894
 
  internal::my_qsort(tree->ror_scans, tree->n_ror_scans, sizeof(ROR_SCAN_INFO*),
1895
 
                     (qsort_cmp)cmp_ror_scan_info);
 
3261
  my_qsort(tree->ror_scans, tree->n_ror_scans, sizeof(ROR_SCAN_INFO*),
 
3262
           (qsort_cmp)cmp_ror_scan_info);
 
3263
  print_ror_scans_arr(param->table, "ordered",
 
3264
                                          tree->ror_scans,
 
3265
                                          tree->ror_scans_end);
1896
3266
 
1897
 
  ROR_SCAN_INFO **intersect_scans= NULL; /* ROR scans used in index intersection */
1898
 
  ROR_SCAN_INFO **intersect_scans_end= NULL;
1899
 
  if (! (intersect_scans= (ROR_SCAN_INFO**)param->mem_root->alloc_root(sizeof(ROR_SCAN_INFO*) * tree->n_ror_scans)))
 
3267
  ROR_SCAN_INFO **intersect_scans; /* ROR scans used in index intersection */
 
3268
  ROR_SCAN_INFO **intersect_scans_end;
 
3269
  if (!(intersect_scans= (ROR_SCAN_INFO**)alloc_root(param->mem_root,
 
3270
                                                     sizeof(ROR_SCAN_INFO*)*
 
3271
                                                     tree->n_ror_scans)))
1900
3272
    return NULL;
1901
3273
  intersect_scans_end= intersect_scans;
1902
3274
 
1903
3275
  /* Create and incrementally update ROR intersection. */
1904
 
  ROR_INTERSECT_INFO *intersect= NULL;
1905
 
  ROR_INTERSECT_INFO *intersect_best= NULL;
1906
 
  if (! (intersect= ror_intersect_init(param)) ||
1907
 
      ! (intersect_best= ror_intersect_init(param)))
 
3276
  ROR_INTERSECT_INFO *intersect, *intersect_best;
 
3277
  if (!(intersect= ror_intersect_init(param)) || 
 
3278
      !(intersect_best= ror_intersect_init(param)))
1908
3279
    return NULL;
1909
3280
 
1910
3281
  /* [intersect_scans,intersect_scans_best) will hold the best intersection */
1911
 
  ROR_SCAN_INFO **intersect_scans_best= NULL;
 
3282
  ROR_SCAN_INFO **intersect_scans_best;
1912
3283
  cur_ror_scan= tree->ror_scans;
1913
3284
  intersect_scans_best= intersect_scans;
1914
3285
  while (cur_ror_scan != tree->ror_scans_end && !intersect->is_covering)
1919
3290
      cur_ror_scan++;
1920
3291
      continue;
1921
3292
    }
1922
 
 
 
3293
    
1923
3294
    *(intersect_scans_end++)= *(cur_ror_scan++);
1924
3295
 
1925
3296
    if (intersect->total_cost < min_cost)
1933
3304
 
1934
3305
  if (intersect_scans_best == intersect_scans)
1935
3306
  {
1936
 
    return NULL;
 
3307
    return(NULL);
1937
3308
  }
 
3309
    
 
3310
  print_ror_scans_arr(param->table,
 
3311
                                          "best ROR-intersection",
 
3312
                                          intersect_scans,
 
3313
                                          intersect_scans_best);
1938
3314
 
1939
3315
  *are_all_covering= intersect->is_covering;
1940
 
  uint32_t best_num= intersect_scans_best - intersect_scans;
 
3316
  uint best_num= intersect_scans_best - intersect_scans;
1941
3317
  ror_intersect_cpy(intersect, intersect_best);
1942
3318
 
1943
3319
  /*
1944
3320
    Ok, found the best ROR-intersection of non-CPK key scans.
1945
 
    Check if we should add a CPK scan. If the obtained ROR-intersection is
 
3321
    Check if we should add a CPK scan. If the obtained ROR-intersection is 
1946
3322
    covering, it doesn't make sense to add CPK scan.
1947
3323
  */
1948
3324
  if (cpk_scan && !intersect->is_covering)
1949
3325
  {
1950
 
    if (ror_intersect_add(intersect, cpk_scan, true) &&
 
3326
    if (ror_intersect_add(intersect, cpk_scan, true) && 
1951
3327
        (intersect->total_cost < min_cost))
1952
3328
    {
1953
3329
      cpk_scan_used= true;
1956
3332
  }
1957
3333
 
1958
3334
  /* Ok, return ROR-intersect plan if we have found one */
1959
 
  optimizer::RorIntersectReadPlan *trp= NULL;
 
3335
  TRP_ROR_INTERSECT *trp= NULL;
1960
3336
  if (min_cost < read_time && (cpk_scan_used || best_num > 1))
1961
3337
  {
1962
 
    if (! (trp= new (param->mem_root) optimizer::RorIntersectReadPlan))
1963
 
      return trp;
1964
 
 
1965
 
    if (! (trp->first_scan=
1966
 
           (ROR_SCAN_INFO**)param->mem_root->alloc_root(sizeof(ROR_SCAN_INFO*)*best_num)))
1967
 
      return NULL;
 
3338
    if (!(trp= new (param->mem_root) TRP_ROR_INTERSECT))
 
3339
      return(trp);
 
3340
    if (!(trp->first_scan=
 
3341
           (ROR_SCAN_INFO**)alloc_root(param->mem_root,
 
3342
                                       sizeof(ROR_SCAN_INFO*)*best_num)))
 
3343
      return(NULL);
1968
3344
    memcpy(trp->first_scan, intersect_scans, best_num*sizeof(ROR_SCAN_INFO*));
1969
3345
    trp->last_scan=  trp->first_scan + best_num;
1970
3346
    trp->is_covering= intersect_best->is_covering;
1971
3347
    trp->read_cost= intersect_best->total_cost;
1972
3348
    /* Prevent divisons by zero */
1973
3349
    ha_rows best_rows = double2rows(intersect_best->out_rows);
1974
 
    if (! best_rows)
 
3350
    if (!best_rows)
1975
3351
      best_rows= 1;
1976
3352
    set_if_smaller(param->table->quick_condition_rows, best_rows);
1977
3353
    trp->records= best_rows;
1978
3354
    trp->index_scan_costs= intersect_best->index_scan_costs;
1979
3355
    trp->cpk_scan= cpk_scan_used? cpk_scan: NULL;
1980
3356
  }
1981
 
  return trp;
1982
 
}
1983
 
 
1984
 
 
1985
 
/*
1986
 
  Get best "range" table read plan for given optimizer::SEL_TREE, also update some info
 
3357
  return(trp);
 
3358
}
 
3359
 
 
3360
 
 
3361
/*
 
3362
  Get best covering ROR-intersection.
 
3363
  SYNOPSIS
 
3364
    get_best_covering_ror_intersect()
 
3365
      param     Parameter from test_quick_select function.
 
3366
      tree      SEL_TREE with sets of intervals for different keys.
 
3367
      read_time Don't return table read plans with cost > read_time.
 
3368
 
 
3369
  RETURN
 
3370
    Best covering ROR-intersection plan
 
3371
    NULL if no plan found.
 
3372
 
 
3373
  NOTES
 
3374
    get_best_ror_intersect must be called for a tree before calling this
 
3375
    function for it.
 
3376
    This function invalidates tree->ror_scans member values.
 
3377
 
 
3378
  The following approximate algorithm is used:
 
3379
    I=set of all covering indexes
 
3380
    F=set of all fields to cover
 
3381
    S={}
 
3382
 
 
3383
    do
 
3384
    {
 
3385
      Order I by (#covered fields in F desc,
 
3386
                  #components asc,
 
3387
                  number of first not covered component asc);
 
3388
      F=F-covered by first(I);
 
3389
      S=S+first(I);
 
3390
      I=I-first(I);
 
3391
    } while F is not empty.
 
3392
*/
 
3393
 
 
3394
static
 
3395
TRP_ROR_INTERSECT *get_best_covering_ror_intersect(PARAM *param,
 
3396
                                                   SEL_TREE *tree,
 
3397
                                                   double read_time)
 
3398
{
 
3399
  ROR_SCAN_INFO **ror_scan_mark;
 
3400
  ROR_SCAN_INFO **ror_scans_end= tree->ror_scans_end;
 
3401
 
 
3402
  for (ROR_SCAN_INFO **scan= tree->ror_scans; scan != ror_scans_end; ++scan)
 
3403
    (*scan)->key_components=
 
3404
      param->table->key_info[(*scan)->keynr].key_parts;
 
3405
 
 
3406
  /*
 
3407
    Run covering-ROR-search algorithm.
 
3408
    Assume set I is [ror_scan .. ror_scans_end)
 
3409
  */
 
3410
 
 
3411
  /*I=set of all covering indexes */
 
3412
  ror_scan_mark= tree->ror_scans;
 
3413
 
 
3414
  MY_BITMAP *covered_fields= &param->tmp_covered_fields;
 
3415
  if (!covered_fields->bitmap) 
 
3416
    covered_fields->bitmap= (my_bitmap_map*)alloc_root(param->mem_root,
 
3417
                                               param->fields_bitmap_size);
 
3418
  if (!covered_fields->bitmap ||
 
3419
      bitmap_init(covered_fields, covered_fields->bitmap,
 
3420
                  param->table->s->fields, false))
 
3421
    return(0);
 
3422
  bitmap_clear_all(covered_fields);
 
3423
 
 
3424
  double total_cost= 0.0f;
 
3425
  ha_rows records=0;
 
3426
  bool all_covered;
 
3427
 
 
3428
  print_ror_scans_arr(param->table,
 
3429
                                           "building covering ROR-I",
 
3430
                                           ror_scan_mark, ror_scans_end);
 
3431
  do
 
3432
  {
 
3433
    /*
 
3434
      Update changed sorting info:
 
3435
        #covered fields,
 
3436
        number of first not covered component
 
3437
      Calculate and save these values for each of remaining scans.
 
3438
    */
 
3439
    for (ROR_SCAN_INFO **scan= ror_scan_mark; scan != ror_scans_end; ++scan)
 
3440
    {
 
3441
      bitmap_subtract(&(*scan)->covered_fields, covered_fields);
 
3442
      (*scan)->used_fields_covered=
 
3443
        bitmap_bits_set(&(*scan)->covered_fields);
 
3444
      (*scan)->first_uncovered_field=
 
3445
        bitmap_get_first(&(*scan)->covered_fields);
 
3446
    }
 
3447
 
 
3448
    my_qsort(ror_scan_mark, ror_scans_end-ror_scan_mark, sizeof(ROR_SCAN_INFO*),
 
3449
             (qsort_cmp)cmp_ror_scan_info_covering);
 
3450
 
 
3451
    print_ror_scans_arr(param->table,
 
3452
                                             "remaining scans",
 
3453
                                             ror_scan_mark, ror_scans_end);
 
3454
 
 
3455
    /* I=I-first(I) */
 
3456
    total_cost += (*ror_scan_mark)->index_read_cost;
 
3457
    records += (*ror_scan_mark)->records;
 
3458
    if (total_cost > read_time)
 
3459
      return(NULL);
 
3460
    /* F=F-covered by first(I) */
 
3461
    bitmap_union(covered_fields, &(*ror_scan_mark)->covered_fields);
 
3462
    all_covered= bitmap_is_subset(&param->needed_fields, covered_fields);
 
3463
  } while ((++ror_scan_mark < ror_scans_end) && !all_covered);
 
3464
  
 
3465
  if (!all_covered || (ror_scan_mark - tree->ror_scans) == 1)
 
3466
    return(NULL);
 
3467
 
 
3468
  /*
 
3469
    Ok, [tree->ror_scans .. ror_scan) holds covering index_intersection with
 
3470
    cost total_cost.
 
3471
  */
 
3472
  print_ror_scans_arr(param->table,
 
3473
                                           "creating covering ROR-intersect",
 
3474
                                           tree->ror_scans, ror_scan_mark);
 
3475
 
 
3476
  /* Add priority queue use cost. */
 
3477
  total_cost += rows2double(records)*
 
3478
                log((double)(ror_scan_mark - tree->ror_scans)) /
 
3479
                (TIME_FOR_COMPARE_ROWID * M_LN2);
 
3480
 
 
3481
  if (total_cost > read_time)
 
3482
    return(NULL);
 
3483
 
 
3484
  TRP_ROR_INTERSECT *trp;
 
3485
  if (!(trp= new (param->mem_root) TRP_ROR_INTERSECT))
 
3486
    return(trp);
 
3487
  uint best_num= (ror_scan_mark - tree->ror_scans);
 
3488
  if (!(trp->first_scan= (ROR_SCAN_INFO**)alloc_root(param->mem_root,
 
3489
                                                     sizeof(ROR_SCAN_INFO*)*
 
3490
                                                     best_num)))
 
3491
    return(NULL);
 
3492
  memcpy(trp->first_scan, tree->ror_scans, best_num*sizeof(ROR_SCAN_INFO*));
 
3493
  trp->last_scan=  trp->first_scan + best_num;
 
3494
  trp->is_covering= true;
 
3495
  trp->read_cost= total_cost;
 
3496
  trp->records= records;
 
3497
  trp->cpk_scan= NULL;
 
3498
  set_if_smaller(param->table->quick_condition_rows, records); 
 
3499
 
 
3500
  return(trp);
 
3501
}
 
3502
 
 
3503
 
 
3504
/*
 
3505
  Get best "range" table read plan for given SEL_TREE, also update some info
1987
3506
 
1988
3507
  SYNOPSIS
1989
3508
    get_key_scans_params()
1990
 
      session
1991
3509
      param                    Parameters from test_quick_select
1992
 
      tree                     Make range select for this optimizer::SEL_TREE
 
3510
      tree                     Make range select for this SEL_TREE
1993
3511
      index_read_must_be_used  true <=> assume 'index only' option will be set
1994
3512
                               (except for clustered PK indexes)
1995
3513
      update_tbl_stats         true <=> update table->quick_* with information
1996
3514
                               about range scans we've evaluated.
1997
 
      read_time                Maximum cost. i.e. don't create read plans with
 
3515
      read_time                Maximum cost. i.e. don't create read plans with 
1998
3516
                               cost > read_time.
1999
3517
 
2000
3518
  DESCRIPTION
2001
 
    Find the best "range" table read plan for given optimizer::SEL_TREE.
2002
 
    The side effects are
 
3519
    Find the best "range" table read plan for given SEL_TREE. 
 
3520
    The side effects are 
2003
3521
     - tree->ror_scans is updated to indicate which scans are ROR scans.
2004
3522
     - if update_tbl_stats=true then table->quick_* is updated with info
2005
3523
       about every possible range scan.
2009
3527
    NULL if no plan found or error occurred
2010
3528
*/
2011
3529
 
2012
 
static optimizer::RangeReadPlan *get_key_scans_params(Session *session,
2013
 
                                                      optimizer::Parameter *param,
2014
 
                                                      optimizer::SEL_TREE *tree,
2015
 
                                                      bool index_read_must_be_used,
2016
 
                                                      bool update_tbl_stats,
2017
 
                                                      double read_time)
 
3530
static TRP_RANGE *get_key_scans_params(PARAM *param, SEL_TREE *tree,
 
3531
                                       bool index_read_must_be_used, 
 
3532
                                       bool update_tbl_stats,
 
3533
                                       double read_time)
2018
3534
{
2019
 
  uint32_t idx;
2020
 
  optimizer::SEL_ARG **key= NULL;
2021
 
  optimizer::SEL_ARG **end= NULL;
2022
 
  optimizer::SEL_ARG **key_to_read= NULL;
 
3535
  uint idx;
 
3536
  SEL_ARG **key,**end, **key_to_read= NULL;
2023
3537
  ha_rows best_records= 0;
2024
 
  uint32_t best_mrr_flags= 0;
2025
 
  uint32_t best_buf_size= 0;
2026
 
  optimizer::RangeReadPlan *read_plan= NULL;
 
3538
  uint    best_mrr_flags= 0, best_buf_size= 0;
 
3539
  TRP_RANGE* read_plan= NULL;
2027
3540
  /*
2028
 
    Note that there may be trees that have type optimizer::SEL_TREE::KEY but contain no
 
3541
    Note that there may be trees that have type SEL_TREE::KEY but contain no
2029
3542
    key reads at all, e.g. tree for expression "key1 is not null" where key1
2030
3543
    is defined as "not null".
2031
3544
  */
2032
 
  tree->ror_scans_map.reset();
 
3545
  print_sel_tree(param, tree, &tree->keys_map, "tree scans");
 
3546
  tree->ror_scans_map.clear_all();
2033
3547
  tree->n_ror_scans= 0;
2034
3548
  for (idx= 0,key=tree->keys, end=key+param->keys; key != end; key++,idx++)
2035
3549
  {
2036
3550
    if (*key)
2037
3551
    {
2038
3552
      ha_rows found_records;
2039
 
      optimizer::CostVector cost;
2040
 
      double found_read_time= 0.0;
2041
 
      uint32_t mrr_flags, buf_size;
2042
 
      uint32_t keynr= param->real_keynr[idx];
2043
 
      if ((*key)->type == optimizer::SEL_ARG::MAYBE_KEY ||
 
3553
      COST_VECT cost;
 
3554
      double found_read_time;
 
3555
      uint mrr_flags, buf_size;
 
3556
      uint keynr= param->real_keynr[idx];
 
3557
      if ((*key)->type == SEL_ARG::MAYBE_KEY ||
2044
3558
          (*key)->maybe_flag)
2045
 
        param->needed_reg->set(keynr);
2046
 
 
2047
 
      bool read_index_only= index_read_must_be_used ||
2048
 
                            param->table->covering_keys.test(keynr);
2049
 
 
2050
 
      found_records= check_quick_select(session, param, idx, read_index_only, *key,
 
3559
        param->needed_reg->set_bit(keynr);
 
3560
 
 
3561
      bool read_index_only= index_read_must_be_used || 
 
3562
                            param->table->covering_keys.is_set(keynr);
 
3563
 
 
3564
      found_records= check_quick_select(param, idx, read_index_only, *key,
2051
3565
                                        update_tbl_stats, &mrr_flags,
2052
3566
                                        &buf_size, &cost);
2053
3567
      found_read_time= cost.total_cost();
2054
3568
      if ((found_records != HA_POS_ERROR) && param->is_ror_scan)
2055
3569
      {
2056
3570
        tree->n_ror_scans++;
2057
 
        tree->ror_scans_map.set(idx);
 
3571
        tree->ror_scans_map.set_bit(idx);
2058
3572
      }
2059
3573
      if (read_time > found_read_time && found_records != HA_POS_ERROR)
2060
3574
      {
2067
3581
    }
2068
3582
  }
2069
3583
 
 
3584
  print_sel_tree(param, tree, &tree->ror_scans_map, "ROR scans");
2070
3585
  if (key_to_read)
2071
3586
  {
2072
3587
    idx= key_to_read - tree->keys;
2073
 
    if ((read_plan= new (param->mem_root) optimizer::RangeReadPlan(*key_to_read, idx,
2074
 
                                                                   best_mrr_flags)))
 
3588
    if ((read_plan= new (param->mem_root) TRP_RANGE(*key_to_read, idx,
 
3589
                                                    best_mrr_flags)))
2075
3590
    {
2076
3591
      read_plan->records= best_records;
2077
 
      read_plan->is_ror= tree->ror_scans_map.test(idx);
 
3592
      read_plan->is_ror= tree->ror_scans_map.is_set(idx);
2078
3593
      read_plan->read_cost= read_time;
2079
3594
      read_plan->mrr_buf_size= best_buf_size;
2080
3595
    }
2084
3599
}
2085
3600
 
2086
3601
 
2087
 
optimizer::QuickSelectInterface *optimizer::IndexMergeReadPlan::make_quick(optimizer::Parameter *param, bool, memory::Root *)
 
3602
QUICK_SELECT_I *TRP_INDEX_MERGE::make_quick(PARAM *param,
 
3603
                                            bool retrieve_full_rows __attribute__((unused)),
 
3604
                                            MEM_ROOT *parent_alloc __attribute__((unused)))
2088
3605
{
2089
 
  optimizer::QuickIndexMergeSelect *quick_imerge;
2090
 
  optimizer::QuickRangeSelect *quick= NULL;
 
3606
  QUICK_INDEX_MERGE_SELECT *quick_imerge;
 
3607
  QUICK_RANGE_SELECT *quick;
2091
3608
  /* index_merge always retrieves full rows, ignore retrieve_full_rows */
2092
 
  if (! (quick_imerge= new optimizer::QuickIndexMergeSelect(param->session, param->table)))
2093
 
  {
 
3609
  if (!(quick_imerge= new QUICK_INDEX_MERGE_SELECT(param->thd, param->table)))
2094
3610
    return NULL;
2095
 
  }
2096
3611
 
2097
3612
  quick_imerge->records= records;
2098
3613
  quick_imerge->read_time= read_cost;
2099
 
  for (optimizer::RangeReadPlan **range_scan= range_scans; 
2100
 
       range_scan != range_scans_end;
 
3614
  for (TRP_RANGE **range_scan= range_scans; range_scan != range_scans_end;
2101
3615
       range_scan++)
2102
3616
  {
2103
 
    if (! (quick= (optimizer::QuickRangeSelect*)
2104
 
          ((*range_scan)->make_quick(param, false, &quick_imerge->alloc))) ||
 
3617
    if (!(quick= (QUICK_RANGE_SELECT*)
 
3618
          ((*range_scan)->make_quick(param, false, &quick_imerge->alloc)))||
2105
3619
        quick_imerge->push_quick_back(quick))
2106
3620
    {
2107
3621
      delete quick;
2112
3626
  return quick_imerge;
2113
3627
}
2114
3628
 
2115
 
optimizer::QuickSelectInterface *optimizer::RorIntersectReadPlan::make_quick(optimizer::Parameter *param,
2116
 
                                                                             bool retrieve_full_rows,
2117
 
                                                                             memory::Root *parent_alloc)
 
3629
QUICK_SELECT_I *TRP_ROR_INTERSECT::make_quick(PARAM *param,
 
3630
                                              bool retrieve_full_rows,
 
3631
                                              MEM_ROOT *parent_alloc)
2118
3632
{
2119
 
  optimizer::QuickRorIntersectSelect *quick_intersect= NULL;
2120
 
  optimizer::QuickRangeSelect *quick= NULL;
2121
 
  memory::Root *alloc= NULL;
 
3633
  QUICK_ROR_INTERSECT_SELECT *quick_intrsect;
 
3634
  QUICK_RANGE_SELECT *quick;
 
3635
  MEM_ROOT *alloc;
2122
3636
 
2123
 
  if ((quick_intersect=
2124
 
         new optimizer::QuickRorIntersectSelect(param->session,
2125
 
                                                param->table,
2126
 
                                                (retrieve_full_rows? (! is_covering) : false),
2127
 
                                                parent_alloc)))
 
3637
  if ((quick_intrsect=
 
3638
         new QUICK_ROR_INTERSECT_SELECT(param->thd, param->table,
 
3639
                                        (retrieve_full_rows? (!is_covering) :
 
3640
                                         false),
 
3641
                                        parent_alloc)))
2128
3642
  {
2129
 
    alloc= parent_alloc ? parent_alloc : &quick_intersect->alloc;
2130
 
    for (; first_scan != last_scan; ++first_scan)
 
3643
    print_ror_scans_arr(param->table,
 
3644
                                             "creating ROR-intersect",
 
3645
                                             first_scan, last_scan);
 
3646
    alloc= parent_alloc? parent_alloc: &quick_intrsect->alloc;
 
3647
    for (; first_scan != last_scan;++first_scan)
2131
3648
    {
2132
 
      if (! (quick= optimizer::get_quick_select(param,
2133
 
                                                (*first_scan)->idx,
2134
 
                                                (*first_scan)->sel_arg,
2135
 
                                                HA_MRR_USE_DEFAULT_IMPL | HA_MRR_SORTED,
2136
 
                                                0,
2137
 
                                                alloc)) ||
2138
 
          quick_intersect->push_quick_back(quick))
 
3649
      if (!(quick= get_quick_select(param, (*first_scan)->idx,
 
3650
                                    (*first_scan)->sel_arg,
 
3651
                                    HA_MRR_USE_DEFAULT_IMPL | HA_MRR_SORTED,
 
3652
                                    0, alloc)) ||
 
3653
          quick_intrsect->push_quick_back(quick))
2139
3654
      {
2140
 
        delete quick_intersect;
2141
 
        return NULL;
 
3655
        delete quick_intrsect;
 
3656
        return(NULL);
2142
3657
      }
2143
3658
    }
2144
3659
    if (cpk_scan)
2145
3660
    {
2146
 
      if (! (quick= optimizer::get_quick_select(param,
2147
 
                                                cpk_scan->idx,
2148
 
                                                cpk_scan->sel_arg,
2149
 
                                                HA_MRR_USE_DEFAULT_IMPL | HA_MRR_SORTED,
2150
 
                                                0,
2151
 
                                                alloc)))
 
3661
      if (!(quick= get_quick_select(param, cpk_scan->idx,
 
3662
                                    cpk_scan->sel_arg,
 
3663
                                    HA_MRR_USE_DEFAULT_IMPL | HA_MRR_SORTED,
 
3664
                                    0, alloc)))
2152
3665
      {
2153
 
        delete quick_intersect;
2154
 
        return NULL;
 
3666
        delete quick_intrsect;
 
3667
        return(NULL);
2155
3668
      }
2156
 
      quick->resetCursor();
2157
 
      quick_intersect->cpk_quick= quick;
 
3669
      quick->file= NULL; 
 
3670
      quick_intrsect->cpk_quick= quick;
2158
3671
    }
2159
 
    quick_intersect->records= records;
2160
 
    quick_intersect->read_time= read_cost;
 
3672
    quick_intrsect->records= records;
 
3673
    quick_intrsect->read_time= read_cost;
2161
3674
  }
2162
 
  return quick_intersect;
 
3675
  return(quick_intrsect);
2163
3676
}
2164
3677
 
2165
3678
 
2166
 
optimizer::QuickSelectInterface *optimizer::RorUnionReadPlan::make_quick(optimizer::Parameter *param, bool, memory::Root *)
 
3679
QUICK_SELECT_I *TRP_ROR_UNION::make_quick(PARAM *param,
 
3680
                                          bool retrieve_full_rows __attribute__((unused)),
 
3681
                                          MEM_ROOT *parent_alloc __attribute__((unused)))
2167
3682
{
2168
 
  optimizer::QuickRorUnionSelect *quick_roru= NULL;
2169
 
  optimizer::TableReadPlan **scan= NULL;
2170
 
  optimizer::QuickSelectInterface *quick= NULL;
 
3683
  QUICK_ROR_UNION_SELECT *quick_roru;
 
3684
  TABLE_READ_PLAN **scan;
 
3685
  QUICK_SELECT_I *quick;
2171
3686
  /*
2172
3687
    It is impossible to construct a ROR-union that will not retrieve full
2173
3688
    rows, ignore retrieve_full_rows parameter.
2174
3689
  */
2175
 
  if ((quick_roru= new optimizer::QuickRorUnionSelect(param->session, param->table)))
 
3690
  if ((quick_roru= new QUICK_ROR_UNION_SELECT(param->thd, param->table)))
2176
3691
  {
2177
3692
    for (scan= first_ror; scan != last_ror; scan++)
2178
3693
    {
2179
 
      if (! (quick= (*scan)->make_quick(param, false, &quick_roru->alloc)) ||
 
3694
      if (!(quick= (*scan)->make_quick(param, false, &quick_roru->alloc)) ||
2180
3695
          quick_roru->push_quick_back(quick))
2181
 
      {
2182
 
        return NULL;
2183
 
      }
 
3696
        return(NULL);
2184
3697
    }
2185
3698
    quick_roru->records= records;
2186
3699
    quick_roru->read_time= read_cost;
2187
3700
  }
2188
 
  return quick_roru;
 
3701
  return(quick_roru);
2189
3702
}
2190
3703
 
2191
3704
 
2192
3705
/*
2193
 
  Build a optimizer::SEL_TREE for <> or NOT BETWEEN predicate
2194
 
 
 
3706
  Build a SEL_TREE for <> or NOT BETWEEN predicate
 
3707
 
2195
3708
  SYNOPSIS
2196
3709
    get_ne_mm_tree()
2197
 
      param       Parameter from SqlSelect::test_quick_select
 
3710
      param       PARAM from SQL_SELECT::test_quick_select
2198
3711
      cond_func   item for the predicate
2199
3712
      field       field in the predicate
2200
3713
      lt_value    constant that field should be smaller
2201
3714
      gt_value    constant that field should be greaterr
2202
3715
      cmp_type    compare type for the field
2203
3716
 
2204
 
  RETURN
 
3717
  RETURN 
2205
3718
    #  Pointer to tree built tree
2206
3719
    0  on error
2207
3720
*/
2208
 
static optimizer::SEL_TREE *get_ne_mm_tree(optimizer::RangeParameter *param,
2209
 
                                Item_func *cond_func,
 
3721
 
 
3722
static SEL_TREE *get_ne_mm_tree(RANGE_OPT_PARAM *param, Item_func *cond_func, 
2210
3723
                                Field *field,
2211
3724
                                Item *lt_value, Item *gt_value,
2212
3725
                                Item_result cmp_type)
2213
3726
{
2214
 
  optimizer::SEL_TREE *tree= NULL;
 
3727
  SEL_TREE *tree;
2215
3728
  tree= get_mm_parts(param, cond_func, field, Item_func::LT_FUNC,
2216
3729
                     lt_value, cmp_type);
2217
3730
  if (tree)
2218
3731
  {
2219
 
    tree= tree_or(param,
2220
 
                  tree,
2221
 
                  get_mm_parts(param, cond_func, field,
2222
 
                                                Item_func::GT_FUNC,
2223
 
                                                gt_value,
2224
 
                  cmp_type));
 
3732
    tree= tree_or(param, tree, get_mm_parts(param, cond_func, field,
 
3733
                                            Item_func::GT_FUNC,
 
3734
                                            gt_value, cmp_type));
2225
3735
  }
2226
3736
  return tree;
2227
3737
}
2228
 
 
 
3738
   
2229
3739
 
2230
3740
/*
2231
 
  Build a optimizer::SEL_TREE for a simple predicate
2232
 
 
 
3741
  Build a SEL_TREE for a simple predicate
 
3742
 
2233
3743
  SYNOPSIS
2234
3744
    get_func_mm_tree()
2235
 
      param       Parameter from SqlSelect::test_quick_select
 
3745
      param       PARAM from SQL_SELECT::test_quick_select
2236
3746
      cond_func   item for the predicate
2237
3747
      field       field in the predicate
2238
3748
      value       constant in the predicate
2239
3749
      cmp_type    compare type for the field
2240
3750
      inv         true <> NOT cond_func is considered
2241
 
                  (makes sense only when cond_func is BETWEEN or IN)
 
3751
                  (makes sense only when cond_func is BETWEEN or IN) 
2242
3752
 
2243
 
  RETURN
 
3753
  RETURN 
2244
3754
    Pointer to the tree built tree
2245
3755
*/
2246
 
static optimizer::SEL_TREE *get_func_mm_tree(optimizer::RangeParameter *param,
2247
 
                                  Item_func *cond_func,
2248
 
                                  Field *field, 
2249
 
                                  Item *value,
2250
 
                                  Item_result cmp_type, 
2251
 
                                  bool inv)
 
3756
 
 
3757
static SEL_TREE *get_func_mm_tree(RANGE_OPT_PARAM *param, Item_func *cond_func, 
 
3758
                                  Field *field, Item *value,
 
3759
                                  Item_result cmp_type, bool inv)
2252
3760
{
2253
 
  optimizer::SEL_TREE *tree= NULL;
 
3761
  SEL_TREE *tree= 0;
2254
3762
 
2255
 
  switch (cond_func->functype()) 
2256
 
  {
 
3763
  switch (cond_func->functype()) {
2257
3764
 
2258
3765
  case Item_func::NE_FUNC:
2259
3766
    tree= get_ne_mm_tree(param, cond_func, field, value, value, cmp_type);
2261
3768
 
2262
3769
  case Item_func::BETWEEN:
2263
3770
  {
2264
 
    if (! value)
 
3771
    if (!value)
2265
3772
    {
2266
3773
      if (inv)
2267
3774
      {
2268
 
        tree= get_ne_mm_tree(param, 
2269
 
                             cond_func, 
2270
 
                             field, 
2271
 
                             cond_func->arguments()[1],
2272
 
                             cond_func->arguments()[2], 
2273
 
                             cmp_type);
 
3775
        tree= get_ne_mm_tree(param, cond_func, field, cond_func->arguments()[1],
 
3776
                             cond_func->arguments()[2], cmp_type);
2274
3777
      }
2275
3778
      else
2276
3779
      {
2277
 
        tree= get_mm_parts(param, 
2278
 
                           cond_func, 
2279
 
                           field, 
2280
 
                           Item_func::GE_FUNC,
2281
 
                                       cond_func->arguments()[1],
2282
 
                           cmp_type);
 
3780
        tree= get_mm_parts(param, cond_func, field, Item_func::GE_FUNC,
 
3781
                           cond_func->arguments()[1],cmp_type);
2283
3782
        if (tree)
2284
3783
        {
2285
 
          tree= tree_and(param, 
2286
 
                         tree, 
2287
 
                         get_mm_parts(param, cond_func, field,
2288
 
                                                       Item_func::LE_FUNC,
2289
 
                                                       cond_func->arguments()[2],
2290
 
                         cmp_type));
 
3784
          tree= tree_and(param, tree, get_mm_parts(param, cond_func, field,
 
3785
                                                   Item_func::LE_FUNC,
 
3786
                                                   cond_func->arguments()[2],
 
3787
                                                   cmp_type));
2291
3788
        }
2292
3789
      }
2293
3790
    }
2294
3791
    else
2295
 
      tree= get_mm_parts(param, 
2296
 
                         cond_func, 
2297
 
                         field,
 
3792
      tree= get_mm_parts(param, cond_func, field,
2298
3793
                         (inv ?
2299
3794
                          (value == (Item*)1 ? Item_func::GT_FUNC :
2300
3795
                                               Item_func::LT_FUNC):
2301
3796
                          (value == (Item*)1 ? Item_func::LE_FUNC :
2302
3797
                                               Item_func::GE_FUNC)),
2303
 
                         cond_func->arguments()[0], 
2304
 
                         cmp_type);
 
3798
                         cond_func->arguments()[0], cmp_type);
2305
3799
    break;
2306
3800
  }
2307
3801
  case Item_func::IN_FUNC:
2308
3802
  {
2309
 
    Item_func_in *func= (Item_func_in*) cond_func;
 
3803
    Item_func_in *func=(Item_func_in*) cond_func;
2310
3804
 
2311
3805
    /*
2312
3806
      Array for IN() is constructed when all values have the same result
2313
3807
      type. Tree won't be built for values with different result types,
2314
3808
      so we check it here to avoid unnecessary work.
2315
3809
    */
2316
 
    if (! func->arg_types_compatible)
2317
 
      break;
 
3810
    if (!func->arg_types_compatible)
 
3811
      break;     
2318
3812
 
2319
3813
    if (inv)
2320
3814
    {
2322
3816
      {
2323
3817
        /*
2324
3818
          We get here for conditions in form "t.key NOT IN (c1, c2, ...)",
2325
 
          where c{i} are constants. Our goal is to produce a optimizer::SEL_TREE that
 
3819
          where c{i} are constants. Our goal is to produce a SEL_TREE that 
2326
3820
          represents intervals:
2327
 
 
 
3821
          
2328
3822
          ($MIN<t.key<c1) OR (c1<t.key<c2) OR (c2<t.key<c3) OR ...    (*)
2329
 
 
 
3823
          
2330
3824
          where $MIN is either "-inf" or NULL.
2331
 
 
 
3825
          
2332
3826
          The most straightforward way to produce it is to convert NOT IN
2333
3827
          into "(t.key != c1) AND (t.key != c2) AND ... " and let the range
2334
 
          analyzer to build optimizer::SEL_TREE from that. The problem is that the
 
3828
          analyzer to build SEL_TREE from that. The problem is that the
2335
3829
          range analyzer will use O(N^2) memory (which is probably a bug),
2336
3830
          and people do use big NOT IN lists (e.g. see BUG#15872, BUG#21282),
2337
3831
          will run out of memory.
2338
3832
 
2339
3833
          Another problem with big lists like (*) is that a big list is
2340
3834
          unlikely to produce a good "range" access, while considering that
2341
 
          range access will require expensive CPU calculations (and for
 
3835
          range access will require expensive CPU calculations (and for 
2342
3836
          MyISAM even index accesses). In short, big NOT IN lists are rarely
2343
3837
          worth analyzing.
2344
3838
 
2345
3839
          Considering the above, we'll handle NOT IN as follows:
2346
3840
          * if the number of entries in the NOT IN list is less than
2347
 
            NOT_IN_IGNORE_THRESHOLD, construct the optimizer::SEL_TREE (*) manually.
2348
 
          * Otherwise, don't produce a optimizer::SEL_TREE.
 
3841
            NOT_IN_IGNORE_THRESHOLD, construct the SEL_TREE (*) manually.
 
3842
          * Otherwise, don't produce a SEL_TREE.
2349
3843
        */
2350
3844
#define NOT_IN_IGNORE_THRESHOLD 1000
2351
 
        memory::Root *tmp_root= param->mem_root;
2352
 
        param->session->mem_root= param->old_root;
2353
 
        /*
 
3845
        MEM_ROOT *tmp_root= param->mem_root;
 
3846
        param->thd->mem_root= param->old_root;
 
3847
        /* 
2354
3848
          Create one Item_type constant object. We'll need it as
2355
3849
          get_mm_parts only accepts constant values wrapped in Item_Type
2356
3850
          objects.
2357
3851
          We create the Item on param->mem_root which points to
2358
 
          per-statement mem_root (while session->mem_root is currently pointing
 
3852
          per-statement mem_root (while thd->mem_root is currently pointing
2359
3853
          to mem_root local to range optimizer).
2360
3854
        */
2361
3855
        Item *value_item= func->array->create_item();
2362
 
        param->session->mem_root= tmp_root;
 
3856
        param->thd->mem_root= tmp_root;
2363
3857
 
2364
 
        if (func->array->count > NOT_IN_IGNORE_THRESHOLD || ! value_item)
 
3858
        if (func->array->count > NOT_IN_IGNORE_THRESHOLD || !value_item)
2365
3859
          break;
2366
3860
 
2367
 
        /* Get a optimizer::SEL_TREE for "(-inf|NULL) < X < c_0" interval.  */
2368
 
        uint32_t i=0;
2369
 
        do
 
3861
        /* Get a SEL_TREE for "(-inf|NULL) < X < c_0" interval.  */
 
3862
        uint i=0;
 
3863
        do 
2370
3864
        {
2371
3865
          func->array->value_to_item(i, value_item);
2372
 
          tree= get_mm_parts(param, 
2373
 
                             cond_func, 
2374
 
                             field, Item_func::LT_FUNC,
2375
 
                             value_item, 
2376
 
                             cmp_type);
2377
 
          if (! tree)
 
3866
          tree= get_mm_parts(param, cond_func, field, Item_func::LT_FUNC,
 
3867
                             value_item, cmp_type);
 
3868
          if (!tree)
2378
3869
            break;
2379
3870
          i++;
2380
 
        } while (i < func->array->count && tree->type == optimizer::SEL_TREE::IMPOSSIBLE);
 
3871
        } while (i < func->array->count && tree->type == SEL_TREE::IMPOSSIBLE);
2381
3872
 
2382
 
        if (!tree || tree->type == optimizer::SEL_TREE::IMPOSSIBLE)
 
3873
        if (!tree || tree->type == SEL_TREE::IMPOSSIBLE)
2383
3874
        {
2384
3875
          /* We get here in cases like "t.unsigned NOT IN (-1,-2,-3) */
2385
3876
          tree= NULL;
2386
3877
          break;
2387
3878
        }
2388
 
        optimizer::SEL_TREE *tree2= NULL;
 
3879
        SEL_TREE *tree2;
2389
3880
        for (; i < func->array->count; i++)
2390
3881
        {
2391
3882
          if (func->array->compare_elems(i, i-1))
2392
3883
          {
2393
 
            /* Get a optimizer::SEL_TREE for "-inf < X < c_i" interval */
 
3884
            /* Get a SEL_TREE for "-inf < X < c_i" interval */
2394
3885
            func->array->value_to_item(i, value_item);
2395
3886
            tree2= get_mm_parts(param, cond_func, field, Item_func::LT_FUNC,
2396
3887
                                value_item, cmp_type);
2401
3892
            }
2402
3893
 
2403
3894
            /* Change all intervals to be "c_{i-1} < X < c_i" */
2404
 
            for (uint32_t idx= 0; idx < param->keys; idx++)
 
3895
            for (uint idx= 0; idx < param->keys; idx++)
2405
3896
            {
2406
 
              optimizer::SEL_ARG *new_interval, *last_val;
 
3897
              SEL_ARG *new_interval, *last_val;
2407
3898
              if (((new_interval= tree2->keys[idx])) &&
2408
3899
                  (tree->keys[idx]) &&
2409
3900
                  ((last_val= tree->keys[idx]->last())))
2412
3903
                new_interval->min_flag= NEAR_MIN;
2413
3904
              }
2414
3905
            }
2415
 
            /*
 
3906
            /* 
2416
3907
              The following doesn't try to allocate memory so no need to
2417
3908
              check for NULL.
2418
3909
            */
2419
3910
            tree= tree_or(param, tree, tree2);
2420
3911
          }
2421
3912
        }
2422
 
 
2423
 
        if (tree && tree->type != optimizer::SEL_TREE::IMPOSSIBLE)
 
3913
        
 
3914
        if (tree && tree->type != SEL_TREE::IMPOSSIBLE)
2424
3915
        {
2425
 
          /*
2426
 
            Get the optimizer::SEL_TREE for the last "c_last < X < +inf" interval
 
3916
          /* 
 
3917
            Get the SEL_TREE for the last "c_last < X < +inf" interval 
2427
3918
            (value_item cotains c_last already)
2428
3919
          */
2429
3920
          tree2= get_mm_parts(param, cond_func, field, Item_func::GT_FUNC,
2442
3933
          for (arg= func->arguments()+2, end= arg+func->argument_count()-2;
2443
3934
               arg < end ; arg++)
2444
3935
          {
2445
 
            tree=  tree_and(param, tree, get_ne_mm_tree(param, cond_func, field,
 
3936
            tree=  tree_and(param, tree, get_ne_mm_tree(param, cond_func, field, 
2446
3937
                                                        *arg, *arg, cmp_type));
2447
3938
          }
2448
3939
        }
2449
3940
      }
2450
3941
    }
2451
3942
    else
2452
 
    {
 
3943
    {    
2453
3944
      tree= get_mm_parts(param, cond_func, field, Item_func::EQ_FUNC,
2454
3945
                         func->arguments()[1], cmp_type);
2455
3946
      if (tree)
2458
3949
        for (arg= func->arguments()+2, end= arg+func->argument_count()-2;
2459
3950
             arg < end ; arg++)
2460
3951
        {
2461
 
          tree= tree_or(param, tree, get_mm_parts(param, cond_func, field,
 
3952
          tree= tree_or(param, tree, get_mm_parts(param, cond_func, field, 
2462
3953
                                                  Item_func::EQ_FUNC,
2463
3954
                                                  *arg, cmp_type));
2464
3955
        }
2466
3957
    }
2467
3958
    break;
2468
3959
  }
2469
 
  default:
 
3960
  default: 
2470
3961
  {
2471
 
    /*
 
3962
    /* 
2472
3963
       Here the function for the following predicates are processed:
2473
3964
       <, <=, =, >=, >, LIKE, IS NULL, IS NOT NULL.
2474
3965
       If the predicate is of the form (value op field) it is handled
2487
3978
 
2488
3979
 
2489
3980
/*
2490
 
  Build conjunction of all optimizer::SEL_TREEs for a simple predicate applying equalities
2491
 
 
 
3981
  Build conjunction of all SEL_TREEs for a simple predicate applying equalities
 
3982
 
2492
3983
  SYNOPSIS
2493
3984
    get_full_func_mm_tree()
2494
 
      param       Parameter from SqlSelect::test_quick_select
 
3985
      param       PARAM from SQL_SELECT::test_quick_select
2495
3986
      cond_func   item for the predicate
2496
3987
      field_item  field in the predicate
2497
3988
      value       constant in the predicate
2498
3989
                  (for BETWEEN it contains the number of the field argument,
2499
 
                   for IN it's always 0)
 
3990
                   for IN it's always 0) 
2500
3991
      inv         true <> NOT cond_func is considered
2501
3992
                  (makes sense only when cond_func is BETWEEN or IN)
2502
3993
 
2503
3994
  DESCRIPTION
2504
3995
    For a simple SARGable predicate of the form (f op c), where f is a field and
2505
 
    c is a constant, the function builds a conjunction of all optimizer::SEL_TREES that can
 
3996
    c is a constant, the function builds a conjunction of all SEL_TREES that can
2506
3997
    be obtained by the substitution of f for all different fields equal to f.
2507
3998
 
2508
 
  NOTES
 
3999
  NOTES  
2509
4000
    If the WHERE condition contains a predicate (fi op c),
2510
4001
    then not only SELL_TREE for this predicate is built, but
2511
4002
    the trees for the results of substitution of fi for
2512
4003
    each fj belonging to the same multiple equality as fi
2513
4004
    are built as well.
2514
 
    E.g. for WHERE t1.a=t2.a AND t2.a > 10
2515
 
    a optimizer::SEL_TREE for t2.a > 10 will be built for quick select from t2
2516
 
    and
2517
 
    a optimizer::SEL_TREE for t1.a > 10 will be built for quick select from t1.
 
4005
    E.g. for WHERE t1.a=t2.a AND t2.a > 10 
 
4006
    a SEL_TREE for t2.a > 10 will be built for quick select from t2
 
4007
    and   
 
4008
    a SEL_TREE for t1.a > 10 will be built for quick select from t1.
2518
4009
 
2519
4010
    A BETWEEN predicate of the form (fi [NOT] BETWEEN c1 AND c2) is treated
2520
4011
    in a similar way: we build a conjuction of trees for the results
2522
4013
    Yet a predicate of the form (c BETWEEN f1i AND f2i) is processed
2523
4014
    differently. It is considered as a conjuction of two SARGable
2524
4015
    predicates (f1i <= c) and (f2i <=c) and the function get_full_func_mm_tree
2525
 
    is called for each of them separately producing trees for
2526
 
       AND j (f1j <=c ) and AND j (f2j <= c)
 
4016
    is called for each of them separately producing trees for 
 
4017
       AND j (f1j <=c ) and AND j (f2j <= c) 
2527
4018
    After this these two trees are united in one conjunctive tree.
2528
4019
    It's easy to see that the same tree is obtained for
2529
4020
       AND j,k (f1j <=c AND f2k<=c)
2530
 
    which is equivalent to
 
4021
    which is equivalent to 
2531
4022
       AND j,k (c BETWEEN f1j AND f2k).
2532
4023
    The validity of the processing of the predicate (c NOT BETWEEN f1i AND f2i)
2533
4024
    which equivalent to (f1i > c OR f2i < c) is not so obvious. Here the
2534
4025
    function get_full_func_mm_tree is called for (f1i > c) and (f2i < c)
2535
4026
    producing trees for AND j (f1j > c) and AND j (f2j < c). Then this two
2536
 
    trees are united in one OR-tree. The expression
 
4027
    trees are united in one OR-tree. The expression 
2537
4028
      (AND j (f1j > c) OR AND j (f2j < c)
2538
4029
    is equivalent to the expression
2539
 
      AND j,k (f1j > c OR f2k < c)
2540
 
    which is just a translation of
 
4030
      AND j,k (f1j > c OR f2k < c) 
 
4031
    which is just a translation of 
2541
4032
      AND j,k (c NOT BETWEEN f1j AND f2k)
2542
4033
 
2543
4034
    In the cases when one of the items f1, f2 is a constant c1 we do not create
2550
4041
    As to IN predicates only ones of the form (f IN (c1,...,cn)),
2551
4042
    where f1 is a field and c1,...,cn are constant, are considered as
2552
4043
    SARGable. We never try to narrow the index scan using predicates of
2553
 
    the form (c IN (c1,...,f,...,cn)).
2554
 
 
2555
 
  RETURN
2556
 
    Pointer to the tree representing the built conjunction of optimizer::SEL_TREEs
 
4044
    the form (c IN (c1,...,f,...,cn)). 
 
4045
      
 
4046
  RETURN 
 
4047
    Pointer to the tree representing the built conjunction of SEL_TREEs
2557
4048
*/
2558
4049
 
2559
 
static optimizer::SEL_TREE *get_full_func_mm_tree(optimizer::RangeParameter *param,
 
4050
static SEL_TREE *get_full_func_mm_tree(RANGE_OPT_PARAM *param,
2560
4051
                                       Item_func *cond_func,
2561
 
                                       Item_field *field_item, Item *value,
 
4052
                                       Item_field *field_item, Item *value, 
2562
4053
                                       bool inv)
2563
4054
{
2564
 
  optimizer::SEL_TREE *tree= 0;
2565
 
  optimizer::SEL_TREE *ftree= 0;
 
4055
  SEL_TREE *tree= 0;
 
4056
  SEL_TREE *ftree= 0;
2566
4057
  table_map ref_tables= 0;
2567
4058
  table_map param_comp= ~(param->prev_tables | param->read_tables |
2568
4059
                          param->current_table);
2569
4060
 
2570
 
  for (uint32_t i= 0; i < cond_func->arg_count; i++)
 
4061
  for (uint i= 0; i < cond_func->arg_count; i++)
2571
4062
  {
2572
4063
    Item *arg= cond_func->arguments()[i]->real_item();
2573
4064
    if (arg != field_item)
2574
4065
      ref_tables|= arg->used_tables();
2575
4066
  }
2576
 
 
2577
4067
  Field *field= field_item->field;
2578
 
  field->setWriteSet();
2579
 
 
2580
4068
  Item_result cmp_type= field->cmp_type();
2581
 
  if (!((ref_tables | field->getTable()->map) & param_comp))
 
4069
  if (!((ref_tables | field->table->map) & param_comp))
2582
4070
    ftree= get_func_mm_tree(param, cond_func, field, value, cmp_type, inv);
2583
4071
  Item_equal *item_equal= field_item->item_equal;
2584
4072
  if (item_equal)
2588
4076
    while ((item= it++))
2589
4077
    {
2590
4078
      Field *f= item->field;
2591
 
      f->setWriteSet();
2592
 
 
2593
4079
      if (field->eq(f))
2594
4080
        continue;
2595
 
      if (!((ref_tables | f->getTable()->map) & param_comp))
 
4081
      if (!((ref_tables | f->table->map) & param_comp))
2596
4082
      {
2597
4083
        tree= get_func_mm_tree(param, cond_func, f, value, cmp_type, inv);
2598
4084
        ftree= !ftree ? tree : tree_and(param, ftree, tree);
2604
4090
 
2605
4091
        /* make a select tree of all keys in condition */
2606
4092
 
2607
 
static optimizer::SEL_TREE *get_mm_tree(optimizer::RangeParameter *param, COND *cond)
 
4093
static SEL_TREE *get_mm_tree(RANGE_OPT_PARAM *param,COND *cond)
2608
4094
{
2609
 
  optimizer::SEL_TREE *tree=0;
2610
 
  optimizer::SEL_TREE *ftree= 0;
 
4095
  SEL_TREE *tree=0;
 
4096
  SEL_TREE *ftree= 0;
2611
4097
  Item_field *field_item= 0;
2612
4098
  bool inv= false;
2613
4099
  Item *value= 0;
2622
4108
      Item *item;
2623
4109
      while ((item=li++))
2624
4110
      {
2625
 
        optimizer::SEL_TREE *new_tree= get_mm_tree(param,item);
2626
 
        if (param->session->is_fatal_error ||
2627
 
            param->alloced_sel_args > optimizer::SEL_ARG::MAX_SEL_ARGS)
2628
 
          return 0;     // out of memory
 
4111
        SEL_TREE *new_tree=get_mm_tree(param,item);
 
4112
        if (param->thd->is_fatal_error || 
 
4113
            param->alloced_sel_args > SEL_ARG::MAX_SEL_ARGS)
 
4114
          return(0);    // out of memory
2629
4115
        tree=tree_and(param,tree,new_tree);
2630
 
        if (tree && tree->type == optimizer::SEL_TREE::IMPOSSIBLE)
 
4116
        if (tree && tree->type == SEL_TREE::IMPOSSIBLE)
2631
4117
          break;
2632
4118
      }
2633
4119
    }
2634
4120
    else
2635
4121
    {                                           // COND OR
2636
 
      tree= get_mm_tree(param,li++);
 
4122
      tree=get_mm_tree(param,li++);
2637
4123
      if (tree)
2638
4124
      {
2639
4125
        Item *item;
2640
4126
        while ((item=li++))
2641
4127
        {
2642
 
          optimizer::SEL_TREE *new_tree= get_mm_tree(param,item);
 
4128
          SEL_TREE *new_tree=get_mm_tree(param,item);
2643
4129
          if (!new_tree)
2644
 
            return 0;   // out of memory
 
4130
            return(0);  // out of memory
2645
4131
          tree=tree_or(param,tree,new_tree);
2646
 
          if (!tree || tree->type == optimizer::SEL_TREE::ALWAYS)
 
4132
          if (!tree || tree->type == SEL_TREE::ALWAYS)
2647
4133
            break;
2648
4134
        }
2649
4135
      }
2650
4136
    }
2651
4137
    return(tree);
2652
4138
  }
2653
 
  /* Here when simple cond
2654
 
     There are limits on what kinds of const items we can evaluate, grep for
2655
 
     DontEvaluateMaterializedSubqueryTooEarly.
2656
 
  */
2657
 
  if (cond->const_item()  && !cond->is_expensive())
 
4139
  /* Here when simple cond */
 
4140
  if (cond->const_item())
2658
4141
  {
2659
4142
    /*
2660
 
      During the cond->val_int() evaluation we can come across a subselect
2661
 
      item which may allocate memory on the session->mem_root and assumes
2662
 
      all the memory allocated has the same life span as the subselect
 
4143
      During the cond->val_int() evaluation we can come across a subselect 
 
4144
      item which may allocate memory on the thd->mem_root and assumes 
 
4145
      all the memory allocated has the same life span as the subselect 
2663
4146
      item itself. So we have to restore the thread's mem_root here.
2664
4147
    */
2665
 
    memory::Root *tmp_root= param->mem_root;
2666
 
    param->session->mem_root= param->old_root;
2667
 
    tree= cond->val_int() ? new(tmp_root) optimizer::SEL_TREE(optimizer::SEL_TREE::ALWAYS) :
2668
 
                            new(tmp_root) optimizer::SEL_TREE(optimizer::SEL_TREE::IMPOSSIBLE);
2669
 
    param->session->mem_root= tmp_root;
 
4148
    MEM_ROOT *tmp_root= param->mem_root;
 
4149
    param->thd->mem_root= param->old_root;
 
4150
    tree= cond->val_int() ? new(tmp_root) SEL_TREE(SEL_TREE::ALWAYS) :
 
4151
                            new(tmp_root) SEL_TREE(SEL_TREE::IMPOSSIBLE);
 
4152
    param->thd->mem_root= tmp_root;
2670
4153
    return(tree);
2671
4154
  }
2672
4155
 
2678
4161
    ref_tables= cond->used_tables();
2679
4162
    if ((ref_tables & param->current_table) ||
2680
4163
        (ref_tables & ~(param->prev_tables | param->read_tables)))
2681
 
      return 0;
2682
 
    return(new optimizer::SEL_TREE(optimizer::SEL_TREE::MAYBE));
 
4164
      return(0);
 
4165
    return(new SEL_TREE(SEL_TREE::MAYBE));
2683
4166
  }
2684
4167
 
2685
4168
  Item_func *cond_func= (Item_func*) cond;
2687
4170
      cond_func->functype() == Item_func::IN_FUNC)
2688
4171
    inv= ((Item_func_opt_neg *) cond_func)->negated;
2689
4172
  else if (cond_func->select_optimize() == Item_func::OPTIMIZE_NONE)
2690
 
    return 0;
 
4173
    return(0);                         
2691
4174
 
2692
4175
  param->cond= cond;
2693
4176
 
2703
4186
      Concerning the code below see the NOTES section in
2704
4187
      the comments for the function get_full_func_mm_tree()
2705
4188
    */
2706
 
    for (uint32_t i= 1 ; i < cond_func->arg_count ; i++)
 
4189
    for (uint i= 1 ; i < cond_func->arg_count ; i++)
2707
4190
    {
2708
4191
      if (cond_func->arguments()[i]->real_item()->type() == Item::FIELD_ITEM)
2709
4192
      {
2710
4193
        field_item= (Item_field*) (cond_func->arguments()[i]->real_item());
2711
 
        optimizer::SEL_TREE *tmp= get_full_func_mm_tree(param, cond_func,
 
4194
        SEL_TREE *tmp= get_full_func_mm_tree(param, cond_func, 
2712
4195
                                    field_item, (Item*)(intptr_t)i, inv);
2713
4196
        if (inv)
2714
4197
          tree= !tree ? tmp : tree_or(param, tree, tmp);
2715
 
        else
 
4198
        else 
2716
4199
          tree= tree_and(param, tree, tmp);
2717
4200
      }
2718
4201
      else if (inv)
2719
 
      {
 
4202
      { 
2720
4203
        tree= 0;
2721
4204
        break;
2722
4205
      }
2728
4211
  {
2729
4212
    Item_func_in *func=(Item_func_in*) cond_func;
2730
4213
    if (func->key_item()->real_item()->type() != Item::FIELD_ITEM)
2731
 
      return 0;
 
4214
      return(0);
2732
4215
    field_item= (Item_field*) (func->key_item()->real_item());
2733
4216
    ftree= get_full_func_mm_tree(param, cond_func, field_item, NULL, inv);
2734
4217
    break;
2735
4218
  }
2736
4219
  case Item_func::MULT_EQUAL_FUNC:
2737
4220
  {
2738
 
    Item_equal *item_equal= (Item_equal *) cond;
 
4221
    Item_equal *item_equal= (Item_equal *) cond;    
2739
4222
    if (!(value= item_equal->get_const()))
2740
 
      return 0;
 
4223
      return(0);
2741
4224
    Item_equal_iterator it(*item_equal);
2742
4225
    ref_tables= value->used_tables();
2743
4226
    while ((field_item= it++))
2744
4227
    {
2745
4228
      Field *field= field_item->field;
2746
 
      field->setWriteSet();
2747
 
 
2748
4229
      Item_result cmp_type= field->cmp_type();
2749
 
      if (!((ref_tables | field->getTable()->map) & param_comp))
 
4230
      if (!((ref_tables | field->table->map) & param_comp))
2750
4231
      {
2751
4232
        tree= get_mm_parts(param, cond, field, Item_func::EQ_FUNC,
2752
4233
                           value,cmp_type);
2753
4234
        ftree= !ftree ? tree : tree_and(param, ftree, tree);
2754
4235
      }
2755
4236
    }
2756
 
 
 
4237
    
2757
4238
    return(ftree);
2758
4239
  }
2759
4240
  default:
2770
4251
      value= cond_func->arguments()[0];
2771
4252
    }
2772
4253
    else
2773
 
      return 0;
 
4254
      return(0);
2774
4255
    ftree= get_full_func_mm_tree(param, cond_func, field_item, value, inv);
2775
4256
  }
2776
4257
 
2778
4259
}
2779
4260
 
2780
4261
 
2781
 
static optimizer::SEL_TREE *
2782
 
get_mm_parts(optimizer::RangeParameter *param,
2783
 
             COND *cond_func,
2784
 
             Field *field,
2785
 
                   Item_func::Functype type,
2786
 
                   Item *value, Item_result)
 
4262
static SEL_TREE *
 
4263
get_mm_parts(RANGE_OPT_PARAM *param, COND *cond_func, Field *field,
 
4264
             Item_func::Functype type,
 
4265
             Item *value,
 
4266
             Item_result cmp_type __attribute__((unused)))
2787
4267
{
2788
 
  if (field->getTable() != param->table)
2789
 
    return 0;
 
4268
  if (field->table != param->table)
 
4269
    return(0);
2790
4270
 
2791
4271
  KEY_PART *key_part = param->key_parts;
2792
4272
  KEY_PART *end = param->key_parts_end;
2793
 
  optimizer::SEL_TREE *tree=0;
 
4273
  SEL_TREE *tree=0;
2794
4274
  if (value &&
2795
4275
      value->used_tables() & ~(param->prev_tables | param->read_tables))
2796
 
    return 0;
2797
 
  for (; key_part != end; key_part++)
 
4276
    return(0);
 
4277
  for (; key_part != end ; key_part++)
2798
4278
  {
2799
4279
    if (field->eq(key_part->field))
2800
4280
    {
2801
 
      optimizer::SEL_ARG *sel_arg=0;
2802
 
      if (!tree && !(tree=new optimizer::SEL_TREE()))
2803
 
        return 0;                               // OOM
 
4281
      SEL_ARG *sel_arg=0;
 
4282
      if (!tree && !(tree=new SEL_TREE()))
 
4283
        return(0);                              // OOM
2804
4284
      if (!value || !(value->used_tables() & ~param->read_tables))
2805
4285
      {
2806
 
        sel_arg= get_mm_leaf(param,cond_func,
2807
 
            key_part->field,key_part,type,value);
2808
 
        if (! sel_arg)
2809
 
          continue;
2810
 
        if (sel_arg->type == optimizer::SEL_ARG::IMPOSSIBLE)
2811
 
        {
2812
 
          tree->type=optimizer::SEL_TREE::IMPOSSIBLE;
2813
 
          return(tree);
2814
 
        }
 
4286
        sel_arg=get_mm_leaf(param,cond_func,
 
4287
                            key_part->field,key_part,type,value);
 
4288
        if (!sel_arg)
 
4289
          continue;
 
4290
        if (sel_arg->type == SEL_ARG::IMPOSSIBLE)
 
4291
        {
 
4292
          tree->type=SEL_TREE::IMPOSSIBLE;
 
4293
          return(tree);
 
4294
        }
2815
4295
      }
2816
4296
      else
2817
4297
      {
2818
 
        // This key may be used later
2819
 
        if (! (sel_arg= new optimizer::SEL_ARG(optimizer::SEL_ARG::MAYBE_KEY)))
2820
 
          return 0;                     // OOM
 
4298
        // This key may be used later
 
4299
        if (!(sel_arg= new SEL_ARG(SEL_ARG::MAYBE_KEY)))
 
4300
          return(0);                    // OOM
2821
4301
      }
2822
 
      sel_arg->part=(unsigned char) key_part->part;
 
4302
      sel_arg->part=(uchar) key_part->part;
2823
4303
      tree->keys[key_part->key]=sel_add(tree->keys[key_part->key],sel_arg);
2824
 
      tree->keys_map.set(key_part->key);
 
4304
      tree->keys_map.set_bit(key_part->key);
2825
4305
    }
2826
4306
  }
2827
 
 
2828
 
  return tree;
 
4307
  
 
4308
  return(tree);
2829
4309
}
2830
4310
 
2831
4311
 
2832
 
static optimizer::SEL_ARG *
2833
 
get_mm_leaf(optimizer::RangeParameter *param,
2834
 
            COND *conf_func,
2835
 
            Field *field,
2836
 
            KEY_PART *key_part,
2837
 
            Item_func::Functype type,
2838
 
            Item *value)
 
4312
static SEL_ARG *
 
4313
get_mm_leaf(RANGE_OPT_PARAM *param, COND *conf_func, Field *field,
 
4314
            KEY_PART *key_part, Item_func::Functype type,Item *value)
2839
4315
{
2840
 
  uint32_t maybe_null=(uint32_t) field->real_maybe_null();
 
4316
  uint maybe_null=(uint) field->real_maybe_null();
2841
4317
  bool optimize_range;
2842
 
  optimizer::SEL_ARG *tree= NULL;
2843
 
  memory::Root *alloc= param->mem_root;
2844
 
  unsigned char *str;
2845
 
  int err= 0;
 
4318
  SEL_ARG *tree= 0;
 
4319
  MEM_ROOT *alloc= param->mem_root;
 
4320
  uchar *str;
 
4321
  ulong orig_sql_mode;
 
4322
  int err;
2846
4323
 
2847
4324
  /*
2848
4325
    We need to restore the runtime mem_root of the thread in this
2850
4327
    the argument can be any, e.g. a subselect. The subselect
2851
4328
    items, in turn, assume that all the memory allocated during
2852
4329
    the evaluation has the same life span as the item itself.
2853
 
    TODO: opitimizer/range.cc should not reset session->mem_root at all.
 
4330
    TODO: opt_range.cc should not reset thd->mem_root at all.
2854
4331
  */
2855
 
  param->session->mem_root= param->old_root;
 
4332
  param->thd->mem_root= param->old_root;
2856
4333
  if (!value)                                   // IS NULL or IS NOT NULL
2857
4334
  {
2858
 
    if (field->getTable()->maybe_null)          // Can't use a key on this
 
4335
    if (field->table->maybe_null)               // Can't use a key on this
2859
4336
      goto end;
2860
4337
    if (!maybe_null)                            // Not null field
2861
4338
    {
2862
4339
      if (type == Item_func::ISNULL_FUNC)
2863
 
        tree= &optimizer::null_element;
 
4340
        tree= &null_element;
2864
4341
      goto end;
2865
4342
    }
2866
 
    if (!(tree= new (alloc) optimizer::SEL_ARG(field,is_null_string,is_null_string)))
 
4343
    if (!(tree= new (alloc) SEL_ARG(field,is_null_string,is_null_string)))
2867
4344
      goto end;                                 // out of memory
2868
4345
    if (type == Item_func::ISNOTNULL_FUNC)
2869
4346
    {
2887
4364
  */
2888
4365
  if (field->result_type() == STRING_RESULT &&
2889
4366
      value->result_type() == STRING_RESULT &&
 
4367
      key_part->image_type == Field::itRAW &&
2890
4368
      ((Field_str*)field)->charset() != conf_func->compare_collation() &&
2891
4369
      !(conf_func->compare_collation()->state & MY_CS_BINSORT))
2892
4370
    goto end;
2901
4379
  {
2902
4380
    bool like_error;
2903
4381
    char buff1[MAX_FIELD_WIDTH];
2904
 
    unsigned char *min_str,*max_str;
 
4382
    uchar *min_str,*max_str;
2905
4383
    String tmp(buff1,sizeof(buff1),value->collation.collation),*res;
2906
4384
    size_t length, offset, min_length, max_length;
2907
 
    uint32_t field_length= field->pack_length()+maybe_null;
 
4385
    uint field_length= field->pack_length()+maybe_null;
2908
4386
 
2909
4387
    if (!optimize_range)
2910
4388
      goto end;
2911
4389
    if (!(res= value->val_str(&tmp)))
2912
4390
    {
2913
 
      tree= &optimizer::null_element;
 
4391
      tree= &null_element;
2914
4392
      goto end;
2915
4393
    }
2916
4394
 
2940
4418
    {
2941
4419
      if (unlikely(length < field_length))
2942
4420
      {
2943
 
        /*
2944
 
          This can only happen in a table created with UNIREG where one key
2945
 
          overlaps many fields
2946
 
        */
2947
 
        length= field_length;
 
4421
        /*
 
4422
          This can only happen in a table created with UNIREG where one key
 
4423
          overlaps many fields
 
4424
        */
 
4425
        length= field_length;
2948
4426
      }
2949
4427
      else
2950
 
        field_length= length;
 
4428
        field_length= length;
2951
4429
    }
2952
4430
    length+=offset;
2953
 
    if (!(min_str= (unsigned char*) alloc->alloc_root(length*2)))
2954
 
    {
 
4431
    if (!(min_str= (uchar*) alloc_root(alloc, length*2)))
2955
4432
      goto end;
2956
 
    }
2957
4433
 
2958
4434
    max_str=min_str+length;
2959
4435
    if (maybe_null)
2960
4436
      max_str[0]= min_str[0]=0;
2961
4437
 
2962
4438
    field_length-= maybe_null;
2963
 
    int escape_code= make_escape_code(field->charset(),
2964
 
                                      ((Item_func_like*)(param->cond))->escape);
2965
4439
    like_error= my_like_range(field->charset(),
2966
 
                              res->ptr(), res->length(),
2967
 
                              escape_code,
2968
 
                              internal::wild_one, internal::wild_many,
2969
 
                              field_length,
2970
 
                              (char*) min_str+offset, (char*) max_str+offset,
2971
 
                              &min_length, &max_length);
 
4440
                              res->ptr(), res->length(),
 
4441
                              ((Item_func_like*)(param->cond))->escape,
 
4442
                              wild_one, wild_many,
 
4443
                              field_length,
 
4444
                              (char*) min_str+offset, (char*) max_str+offset,
 
4445
                              &min_length, &max_length);
2972
4446
    if (like_error)                             // Can't optimize with LIKE
2973
4447
      goto end;
2974
4448
 
2977
4451
      int2store(min_str+maybe_null,min_length);
2978
4452
      int2store(max_str+maybe_null,max_length);
2979
4453
    }
2980
 
    tree= new (alloc) optimizer::SEL_ARG(field, min_str, max_str);
 
4454
    tree= new (alloc) SEL_ARG(field, min_str, max_str);
2981
4455
    goto end;
2982
4456
  }
2983
4457
 
2984
 
  if (! optimize_range &&
 
4458
  if (!optimize_range &&
2985
4459
      type != Item_func::EQ_FUNC &&
2986
4460
      type != Item_func::EQUAL_FUNC)
2987
4461
    goto end;                                   // Can't optimize this
2994
4468
      value->result_type() != STRING_RESULT &&
2995
4469
      field->cmp_type() != value->result_type())
2996
4470
    goto end;
2997
 
 
2998
 
  /*
2999
 
   * Some notes from Jay...
3000
 
   *
3001
 
   * OK, so previously, and in MySQL, what the optimizer does here is
3002
 
   * override the sql_mode variable to ignore out-of-range or bad date-
3003
 
   * time values.  It does this because the optimizer is populating the
3004
 
   * field variable with the incoming value from the comparison field,
3005
 
   * and the value may exceed the bounds of a proper column type.
3006
 
   *
3007
 
   * For instance, assume the following:
3008
 
   *
3009
 
   * CREATE TABLE t1 (ts TIMESTAMP);
3010
 
   * INSERT INTO t1 ('2009-03-04 00:00:00');
3011
 
   * CREATE TABLE t2 (dt1 DATETIME, dt2 DATETIME);
3012
 
   * INSERT INT t2 ('2003-12-31 00:00:00','2999-12-31 00:00:00');
3013
 
   *
3014
 
   * If we issue this query:
3015
 
   *
3016
 
   * SELECT * FROM t1, t2 WHERE t1.ts BETWEEN t2.dt1 AND t2.dt2;
3017
 
   *
3018
 
   * We will come into bounds issues.  Field_timestamp::store() will be
3019
 
   * called with a datetime value of "2999-12-31 00:00:00" and will throw
3020
 
   * an error for out-of-bounds.  MySQL solves this via a hack with sql_mode
3021
 
   * but Drizzle always throws errors on bad data storage in a Field class.
3022
 
   *
3023
 
   * Therefore, to get around the problem of the Field class being used for
3024
 
   * "storage" here without actually storing anything...we must check to see
3025
 
   * if the value being stored in a Field_timestamp here is out of range.  If
3026
 
   * it is, then we must convert to the highest Timestamp value (or lowest,
3027
 
   * depending on whether the datetime is before or after the epoch.
3028
 
   */
3029
 
  if (field->type() == DRIZZLE_TYPE_TIMESTAMP)
3030
 
  {
3031
 
    /*
3032
 
     * The left-side of the range comparison is a timestamp field.  Therefore,
3033
 
     * we must check to see if the value in the right-hand side is outside the
3034
 
     * range of the UNIX epoch, and cut to the epoch bounds if it is.
3035
 
     */
3036
 
    /* Datetime and date columns are Item::FIELD_ITEM ... and have a result type of STRING_RESULT */
3037
 
    if (value->real_item()->type() == Item::FIELD_ITEM
3038
 
        && value->result_type() == STRING_RESULT)
3039
 
    {
3040
 
      char buff[DateTime::MAX_STRING_LENGTH];
3041
 
      String tmp(buff, sizeof(buff), &my_charset_bin);
3042
 
      String *res= value->val_str(&tmp);
3043
 
 
3044
 
      if (!res)
3045
 
        goto end;
3046
 
      else
3047
 
      {
3048
 
        /*
3049
 
         * Create a datetime from the string and compare to fixed timestamp
3050
 
         * instances representing the epoch boundaries.
3051
 
         */
3052
 
        DateTime value_datetime;
3053
 
 
3054
 
        if (! value_datetime.from_string(res->c_ptr(), (size_t) res->length()))
3055
 
          goto end;
3056
 
 
3057
 
        Timestamp max_timestamp;
3058
 
        Timestamp min_timestamp;
3059
 
 
3060
 
        (void) max_timestamp.from_time_t((time_t) INT32_MAX);
3061
 
        (void) min_timestamp.from_time_t((time_t) 0);
3062
 
 
3063
 
        /* We rely on Temporal class operator overloads to do our comparisons. */
3064
 
        if (value_datetime < min_timestamp)
3065
 
        {
3066
 
          /*
3067
 
           * Datetime in right-hand side column is before UNIX epoch, so adjust to
3068
 
           * lower bound.
3069
 
           */
3070
 
          char new_value_buff[DateTime::MAX_STRING_LENGTH];
3071
 
          int new_value_length;
3072
 
          String new_value_string(new_value_buff, sizeof(new_value_buff), &my_charset_bin);
3073
 
 
3074
 
          new_value_length= min_timestamp.to_string(new_value_string.c_ptr(),
3075
 
                                    DateTime::MAX_STRING_LENGTH);
3076
 
          assert((new_value_length+1) < DateTime::MAX_STRING_LENGTH);
3077
 
          new_value_string.length(new_value_length);
3078
 
          err= value->save_str_value_in_field(field, &new_value_string);
3079
 
        }
3080
 
        else if (value_datetime > max_timestamp)
3081
 
        {
3082
 
          /*
3083
 
           * Datetime in right hand side column is after UNIX epoch, so adjust
3084
 
           * to the higher bound of the epoch.
3085
 
           */
3086
 
          char new_value_buff[DateTime::MAX_STRING_LENGTH];
3087
 
          int new_value_length;
3088
 
          String new_value_string(new_value_buff, sizeof(new_value_buff), &my_charset_bin);
3089
 
 
3090
 
          new_value_length= max_timestamp.to_string(new_value_string.c_ptr(),
3091
 
                                        DateTime::MAX_STRING_LENGTH);
3092
 
          assert((new_value_length+1) < DateTime::MAX_STRING_LENGTH);
3093
 
          new_value_string.length(new_value_length);
3094
 
          err= value->save_str_value_in_field(field, &new_value_string);
3095
 
        }
3096
 
        else
3097
 
          err= value->save_in_field(field, 1);
3098
 
      }
3099
 
    }
3100
 
    else /* Not a datetime -> timestamp comparison */
3101
 
      err= value->save_in_field(field, 1);
3102
 
  }
3103
 
  else /* Not a timestamp comparison */
3104
 
    err= value->save_in_field(field, 1);
3105
 
 
 
4471
  /* For comparison purposes allow invalid dates like 2000-01-32 */
 
4472
  orig_sql_mode= field->table->in_use->variables.sql_mode;
 
4473
  if (value->real_item()->type() == Item::STRING_ITEM &&
 
4474
      (field->type() == DRIZZLE_TYPE_NEWDATE ||
 
4475
       field->type() == DRIZZLE_TYPE_DATETIME))
 
4476
    field->table->in_use->variables.sql_mode|= MODE_INVALID_DATES;
 
4477
  err= value->save_in_field_no_warnings(field, 1);
3106
4478
  if (err > 0)
3107
4479
  {
3108
4480
    if (field->cmp_type() != value->result_type())
3111
4483
          value->result_type() == item_cmp_type(field->result_type(),
3112
4484
                                                value->result_type()))
3113
4485
      {
3114
 
        tree= new (alloc) optimizer::SEL_ARG(field, 0, 0);
3115
 
        tree->type= optimizer::SEL_ARG::IMPOSSIBLE;
 
4486
        tree= new (alloc) SEL_ARG(field, 0, 0);
 
4487
        tree->type= SEL_ARG::IMPOSSIBLE;
3116
4488
        goto end;
3117
4489
      }
3118
4490
      else
3122
4494
          for the cases like int_field > 999999999999999999999999 as well.
3123
4495
        */
3124
4496
        tree= 0;
3125
 
        if (err == 3 && field->type() == DRIZZLE_TYPE_DATE &&
 
4497
        if (err == 3 && field->type() == DRIZZLE_TYPE_NEWDATE &&
3126
4498
            (type == Item_func::GT_FUNC || type == Item_func::GE_FUNC ||
3127
4499
             type == Item_func::LT_FUNC || type == Item_func::LE_FUNC) )
3128
4500
        {
3131
4503
            but a non-zero time part was cut off.
3132
4504
 
3133
4505
            In MySQL's SQL dialect, DATE and DATETIME are compared as datetime
3134
 
            values. Index over a DATE column uses DATE comparison. Changing
 
4506
            values. Index over a DATE column uses DATE comparison. Changing 
3135
4507
            from one comparison to the other is possible:
3136
4508
 
3137
4509
            datetime(date_col)< '2007-12-10 12:34:55' -> date_col<='2007-12-10'
3168
4540
  }
3169
4541
  else if (err < 0)
3170
4542
  {
 
4543
    field->table->in_use->variables.sql_mode= orig_sql_mode;
3171
4544
    /* This happens when we try to insert a NULL field in a not null column */
3172
 
    tree= &optimizer::null_element;                        // cmp with NULL is never true
3173
 
    goto end;
3174
 
  }
3175
 
 
3176
 
  /*
3177
 
    Any predicate except "<=>"(null-safe equality operator) involving NULL as a
3178
 
    constant is always FALSE
3179
 
    Put IMPOSSIBLE Tree(null_element) here.
3180
 
  */  
3181
 
  if (type != Item_func::EQUAL_FUNC && field->is_real_null())
3182
 
  {
3183
 
    tree= &optimizer::null_element;
3184
 
    goto end;
3185
 
  }
3186
 
 
3187
 
  str= (unsigned char*) alloc->alloc_root(key_part->store_length+1);
 
4545
    tree= &null_element;                        // cmp with NULL is never true
 
4546
    goto end;
 
4547
  }
 
4548
  field->table->in_use->variables.sql_mode= orig_sql_mode;
 
4549
  str= (uchar*) alloc_root(alloc, key_part->store_length+1);
3188
4550
  if (!str)
3189
4551
    goto end;
3190
4552
  if (maybe_null)
3191
 
    *str= (unsigned char) field->is_real_null();        // Set to 1 if null
3192
 
  field->get_key_image(str+maybe_null, key_part->length);
3193
 
  if (! (tree= new (alloc) optimizer::SEL_ARG(field, str, str)))
3194
 
    goto end; // out of memory
 
4553
    *str= (uchar) field->is_real_null();        // Set to 1 if null
 
4554
  field->get_key_image(str+maybe_null, key_part->length,
 
4555
                       key_part->image_type);
 
4556
  if (!(tree= new (alloc) SEL_ARG(field, str, str)))
 
4557
    goto end;                                   // out of memory
3195
4558
 
3196
4559
  /*
3197
4560
    Check if we are comparing an UNSIGNED integer with a negative constant.
3213
4576
    {
3214
4577
      if (type == Item_func::LT_FUNC || type == Item_func::LE_FUNC)
3215
4578
      {
3216
 
        tree->type= optimizer::SEL_ARG::IMPOSSIBLE;
 
4579
        tree->type= SEL_ARG::IMPOSSIBLE;
3217
4580
        goto end;
3218
4581
      }
3219
4582
      if (type == Item_func::GT_FUNC || type == Item_func::GE_FUNC)
3252
4615
  }
3253
4616
 
3254
4617
end:
3255
 
  param->session->mem_root= alloc;
 
4618
  param->thd->mem_root= alloc;
3256
4619
  return(tree);
3257
4620
}
3258
4621
 
3274
4637
  This will never be called for same key parts.
3275
4638
*/
3276
4639
 
3277
 
static optimizer::SEL_ARG *
3278
 
sel_add(optimizer::SEL_ARG *key1, optimizer::SEL_ARG *key2)
 
4640
static SEL_ARG *
 
4641
sel_add(SEL_ARG *key1,SEL_ARG *key2)
3279
4642
{
3280
 
  optimizer::SEL_ARG *root= NULL;
3281
 
  optimizer::SEL_ARG **key_link= NULL;
 
4643
  SEL_ARG *root,**key_link;
3282
4644
 
3283
4645
  if (!key1)
3284
4646
    return key2;
3310
4672
#define swap_clone_flag(A) ((A & 1) << 1) | ((A & 2) >> 1)
3311
4673
 
3312
4674
 
3313
 
static optimizer::SEL_TREE *
3314
 
tree_and(optimizer::RangeParameter *param, optimizer::SEL_TREE *tree1, optimizer::SEL_TREE *tree2)
 
4675
static SEL_TREE *
 
4676
tree_and(RANGE_OPT_PARAM *param,SEL_TREE *tree1,SEL_TREE *tree2)
3315
4677
{
3316
4678
  if (!tree1)
3317
4679
    return(tree2);
3318
4680
  if (!tree2)
3319
4681
    return(tree1);
3320
 
  if (tree1->type == optimizer::SEL_TREE::IMPOSSIBLE || tree2->type == optimizer::SEL_TREE::ALWAYS)
 
4682
  if (tree1->type == SEL_TREE::IMPOSSIBLE || tree2->type == SEL_TREE::ALWAYS)
3321
4683
    return(tree1);
3322
 
  if (tree2->type == optimizer::SEL_TREE::IMPOSSIBLE || tree1->type == optimizer::SEL_TREE::ALWAYS)
 
4684
  if (tree2->type == SEL_TREE::IMPOSSIBLE || tree1->type == SEL_TREE::ALWAYS)
3323
4685
    return(tree2);
3324
 
  if (tree1->type == optimizer::SEL_TREE::MAYBE)
 
4686
  if (tree1->type == SEL_TREE::MAYBE)
3325
4687
  {
3326
 
    if (tree2->type == optimizer::SEL_TREE::KEY)
3327
 
      tree2->type=optimizer::SEL_TREE::KEY_SMALLER;
 
4688
    if (tree2->type == SEL_TREE::KEY)
 
4689
      tree2->type=SEL_TREE::KEY_SMALLER;
3328
4690
    return(tree2);
3329
4691
  }
3330
 
  if (tree2->type == optimizer::SEL_TREE::MAYBE)
 
4692
  if (tree2->type == SEL_TREE::MAYBE)
3331
4693
  {
3332
 
    tree1->type=optimizer::SEL_TREE::KEY_SMALLER;
 
4694
    tree1->type=SEL_TREE::KEY_SMALLER;
3333
4695
    return(tree1);
3334
4696
  }
3335
4697
  key_map  result_keys;
3336
 
  result_keys.reset();
3337
 
 
 
4698
  result_keys.clear_all();
 
4699
  
3338
4700
  /* Join the trees key per key */
3339
 
  optimizer::SEL_ARG **key1,**key2,**end;
 
4701
  SEL_ARG **key1,**key2,**end;
3340
4702
  for (key1= tree1->keys,key2= tree2->keys,end=key1+param->keys ;
3341
4703
       key1 != end ; key1++,key2++)
3342
4704
  {
3343
 
    uint32_t flag=0;
 
4705
    uint flag=0;
3344
4706
    if (*key1 || *key2)
3345
4707
    {
3346
4708
      if (*key1 && !(*key1)->simple_key())
3347
 
        flag|=CLONE_KEY1_MAYBE;
 
4709
        flag|=CLONE_KEY1_MAYBE;
3348
4710
      if (*key2 && !(*key2)->simple_key())
3349
 
        flag|=CLONE_KEY2_MAYBE;
 
4711
        flag|=CLONE_KEY2_MAYBE;
3350
4712
      *key1=key_and(param, *key1, *key2, flag);
3351
 
      if (*key1 && (*key1)->type == optimizer::SEL_ARG::IMPOSSIBLE)
 
4713
      if (*key1 && (*key1)->type == SEL_ARG::IMPOSSIBLE)
3352
4714
      {
3353
 
        tree1->type= optimizer::SEL_TREE::IMPOSSIBLE;
 
4715
        tree1->type= SEL_TREE::IMPOSSIBLE;
3354
4716
        return(tree1);
3355
4717
      }
3356
 
      result_keys.set(key1 - tree1->keys);
 
4718
      result_keys.set_bit(key1 - tree1->keys);
 
4719
#ifdef EXTRA_DEBUG
 
4720
        if (*key1 && param->alloced_sel_args < SEL_ARG::MAX_SEL_ARGS) 
 
4721
          (*key1)->test_use_count(*key1);
 
4722
#endif
3357
4723
    }
3358
4724
  }
3359
4725
  tree1->keys_map= result_keys;
3360
4726
  /* dispose index_merge if there is a "range" option */
3361
 
  if (result_keys.any())
 
4727
  if (!result_keys.is_clear_all())
3362
4728
  {
3363
4729
    tree1->merges.empty();
3364
4730
    return(tree1);
3370
4736
}
3371
4737
 
3372
4738
 
 
4739
/*
 
4740
  Check if two SEL_TREES can be combined into one (i.e. a single key range
 
4741
  read can be constructed for "cond_of_tree1 OR cond_of_tree2" ) without
 
4742
  using index_merge.
 
4743
*/
 
4744
 
 
4745
bool sel_trees_can_be_ored(SEL_TREE *tree1, SEL_TREE *tree2, 
 
4746
                           RANGE_OPT_PARAM* param)
 
4747
{
 
4748
  key_map common_keys= tree1->keys_map;
 
4749
  common_keys.intersect(tree2->keys_map);
 
4750
 
 
4751
  if (common_keys.is_clear_all())
 
4752
    return(false);
 
4753
 
 
4754
  /* trees have a common key, check if they refer to same key part */
 
4755
  SEL_ARG **key1,**key2;
 
4756
  for (uint key_no=0; key_no < param->keys; key_no++)
 
4757
  {
 
4758
    if (common_keys.is_set(key_no))
 
4759
    {
 
4760
      key1= tree1->keys + key_no;
 
4761
      key2= tree2->keys + key_no;
 
4762
      if ((*key1)->part == (*key2)->part)
 
4763
      {
 
4764
        return(true);
 
4765
      }
 
4766
    }
 
4767
  }
 
4768
  return(false);
 
4769
}
 
4770
 
 
4771
 
 
4772
/*
 
4773
  Remove the trees that are not suitable for record retrieval.
 
4774
  SYNOPSIS
 
4775
    param  Range analysis parameter
 
4776
    tree   Tree to be processed, tree->type is KEY or KEY_SMALLER
 
4777
 
 
4778
  DESCRIPTION
 
4779
    This function walks through tree->keys[] and removes the SEL_ARG* trees
 
4780
    that are not "maybe" trees (*) and cannot be used to construct quick range
 
4781
    selects.
 
4782
    (*) - have type MAYBE or MAYBE_KEY. Perhaps we should remove trees of
 
4783
          these types here as well.
 
4784
 
 
4785
    A SEL_ARG* tree cannot be used to construct quick select if it has
 
4786
    tree->part != 0. (e.g. it could represent "keypart2 < const").
 
4787
 
 
4788
    WHY THIS FUNCTION IS NEEDED
 
4789
    
 
4790
    Normally we allow construction of SEL_TREE objects that have SEL_ARG
 
4791
    trees that do not allow quick range select construction. For example for
 
4792
    " keypart1=1 AND keypart2=2 " the execution will proceed as follows:
 
4793
    tree1= SEL_TREE { SEL_ARG{keypart1=1} }
 
4794
    tree2= SEL_TREE { SEL_ARG{keypart2=2} } -- can't make quick range select
 
4795
                                               from this
 
4796
    call tree_and(tree1, tree2) -- this joins SEL_ARGs into a usable SEL_ARG
 
4797
                                   tree.
 
4798
    
 
4799
    There is an exception though: when we construct index_merge SEL_TREE,
 
4800
    any SEL_ARG* tree that cannot be used to construct quick range select can
 
4801
    be removed, because current range analysis code doesn't provide any way
 
4802
    that tree could be later combined with another tree.
 
4803
    Consider an example: we should not construct
 
4804
    st1 = SEL_TREE { 
 
4805
      merges = SEL_IMERGE { 
 
4806
                            SEL_TREE(t.key1part1 = 1), 
 
4807
                            SEL_TREE(t.key2part2 = 2)   -- (*)
 
4808
                          } 
 
4809
                   };
 
4810
    because 
 
4811
     - (*) cannot be used to construct quick range select, 
 
4812
     - There is no execution path that would cause (*) to be converted to 
 
4813
       a tree that could be used.
 
4814
 
 
4815
    The latter is easy to verify: first, notice that the only way to convert
 
4816
    (*) into a usable tree is to call tree_and(something, (*)).
 
4817
 
 
4818
    Second look at what tree_and/tree_or function would do when passed a
 
4819
    SEL_TREE that has the structure like st1 tree has, and conlcude that 
 
4820
    tree_and(something, (*)) will not be called.
 
4821
 
 
4822
  RETURN
 
4823
    0  Ok, some suitable trees left
 
4824
    1  No tree->keys[] left.
 
4825
*/
 
4826
 
 
4827
static bool remove_nonrange_trees(RANGE_OPT_PARAM *param, SEL_TREE *tree)
 
4828
{
 
4829
  bool res= false;
 
4830
  for (uint i=0; i < param->keys; i++)
 
4831
  {
 
4832
    if (tree->keys[i])
 
4833
    {
 
4834
      if (tree->keys[i]->part)
 
4835
      {
 
4836
        tree->keys[i]= NULL;
 
4837
        tree->keys_map.clear_bit(i);
 
4838
      }
 
4839
      else
 
4840
        res= true;
 
4841
    }
 
4842
  }
 
4843
  return !res;
 
4844
}
 
4845
 
 
4846
 
 
4847
static SEL_TREE *
 
4848
tree_or(RANGE_OPT_PARAM *param,SEL_TREE *tree1,SEL_TREE *tree2)
 
4849
{
 
4850
  if (!tree1 || !tree2)
 
4851
    return(0);
 
4852
  if (tree1->type == SEL_TREE::IMPOSSIBLE || tree2->type == SEL_TREE::ALWAYS)
 
4853
    return(tree2);
 
4854
  if (tree2->type == SEL_TREE::IMPOSSIBLE || tree1->type == SEL_TREE::ALWAYS)
 
4855
    return(tree1);
 
4856
  if (tree1->type == SEL_TREE::MAYBE)
 
4857
    return(tree1);                              // Can't use this
 
4858
  if (tree2->type == SEL_TREE::MAYBE)
 
4859
    return(tree2);
 
4860
 
 
4861
  SEL_TREE *result= 0;
 
4862
  key_map  result_keys;
 
4863
  result_keys.clear_all();
 
4864
  if (sel_trees_can_be_ored(tree1, tree2, param))
 
4865
  {
 
4866
    /* Join the trees key per key */
 
4867
    SEL_ARG **key1,**key2,**end;
 
4868
    for (key1= tree1->keys,key2= tree2->keys,end= key1+param->keys ;
 
4869
         key1 != end ; key1++,key2++)
 
4870
    {
 
4871
      *key1=key_or(param, *key1, *key2);
 
4872
      if (*key1)
 
4873
      {
 
4874
        result=tree1;                           // Added to tree1
 
4875
        result_keys.set_bit(key1 - tree1->keys);
 
4876
#ifdef EXTRA_DEBUG
 
4877
        if (param->alloced_sel_args < SEL_ARG::MAX_SEL_ARGS) 
 
4878
          (*key1)->test_use_count(*key1);
 
4879
#endif
 
4880
      }
 
4881
    }
 
4882
    if (result)
 
4883
      result->keys_map= result_keys;
 
4884
  }
 
4885
  else
 
4886
  {
 
4887
    /* ok, two trees have KEY type but cannot be used without index merge */
 
4888
    if (tree1->merges.is_empty() && tree2->merges.is_empty())
 
4889
    {
 
4890
      if (param->remove_jump_scans)
 
4891
      {
 
4892
        bool no_trees= remove_nonrange_trees(param, tree1);
 
4893
        no_trees= no_trees || remove_nonrange_trees(param, tree2);
 
4894
        if (no_trees)
 
4895
          return(new SEL_TREE(SEL_TREE::ALWAYS));
 
4896
      }
 
4897
      SEL_IMERGE *merge;
 
4898
      /* both trees are "range" trees, produce new index merge structure */
 
4899
      if (!(result= new SEL_TREE()) || !(merge= new SEL_IMERGE()) ||
 
4900
          (result->merges.push_back(merge)) ||
 
4901
          (merge->or_sel_tree(param, tree1)) ||
 
4902
          (merge->or_sel_tree(param, tree2)))
 
4903
        result= NULL;
 
4904
      else
 
4905
        result->type= tree1->type;
 
4906
    }
 
4907
    else if (!tree1->merges.is_empty() && !tree2->merges.is_empty())
 
4908
    {
 
4909
      if (imerge_list_or_list(param, &tree1->merges, &tree2->merges))
 
4910
        result= new SEL_TREE(SEL_TREE::ALWAYS);
 
4911
      else
 
4912
        result= tree1;
 
4913
    }
 
4914
    else
 
4915
    {
 
4916
      /* one tree is index merge tree and another is range tree */
 
4917
      if (tree1->merges.is_empty())
 
4918
        swap_variables(SEL_TREE*, tree1, tree2);
 
4919
      
 
4920
      if (param->remove_jump_scans && remove_nonrange_trees(param, tree2))
 
4921
         return(new SEL_TREE(SEL_TREE::ALWAYS));
 
4922
      /* add tree2 to tree1->merges, checking if it collapses to ALWAYS */
 
4923
      if (imerge_list_or_tree(param, &tree1->merges, tree2))
 
4924
        result= new SEL_TREE(SEL_TREE::ALWAYS);
 
4925
      else
 
4926
        result= tree1;
 
4927
    }
 
4928
  }
 
4929
  return(result);
 
4930
}
 
4931
 
3373
4932
 
3374
4933
/* And key trees where key1->part < key2 -> part */
3375
4934
 
3376
 
static optimizer::SEL_ARG *
3377
 
and_all_keys(optimizer::RangeParameter *param,
3378
 
             optimizer::SEL_ARG *key1,
3379
 
             optimizer::SEL_ARG *key2,
3380
 
             uint32_t clone_flag)
 
4935
static SEL_ARG *
 
4936
and_all_keys(RANGE_OPT_PARAM *param, SEL_ARG *key1, SEL_ARG *key2, 
 
4937
             uint clone_flag)
3381
4938
{
3382
 
  optimizer::SEL_ARG *next= NULL;
 
4939
  SEL_ARG *next;
3383
4940
  ulong use_count=key1->use_count;
3384
4941
 
3385
4942
  if (key1->elements != 1)
3387
4944
    key2->use_count+=key1->elements-1; //psergey: why we don't count that key1 has n-k-p?
3388
4945
    key2->increment_use_count((int) key1->elements-1);
3389
4946
  }
3390
 
  if (key1->type == optimizer::SEL_ARG::MAYBE_KEY)
 
4947
  if (key1->type == SEL_ARG::MAYBE_KEY)
3391
4948
  {
3392
 
    key1->right= key1->left= &optimizer::null_element;
 
4949
    key1->right= key1->left= &null_element;
3393
4950
    key1->next= key1->prev= 0;
3394
4951
  }
3395
 
  for (next= key1->first(); next ; next=next->next)
 
4952
  for (next=key1->first(); next ; next=next->next)
3396
4953
  {
3397
4954
    if (next->next_key_part)
3398
4955
    {
3399
 
      optimizer::SEL_ARG *tmp= key_and(param, next->next_key_part, key2, clone_flag);
3400
 
      if (tmp && tmp->type == optimizer::SEL_ARG::IMPOSSIBLE)
 
4956
      SEL_ARG *tmp= key_and(param, next->next_key_part, key2, clone_flag);
 
4957
      if (tmp && tmp->type == SEL_ARG::IMPOSSIBLE)
3401
4958
      {
3402
 
        key1=key1->tree_delete(next);
3403
 
        continue;
 
4959
        key1=key1->tree_delete(next);
 
4960
        continue;
3404
4961
      }
3405
4962
      next->next_key_part=tmp;
3406
4963
      if (use_count)
3407
 
        next->increment_use_count(use_count);
3408
 
      if (param->alloced_sel_args > optimizer::SEL_ARG::MAX_SEL_ARGS)
 
4964
        next->increment_use_count(use_count);
 
4965
      if (param->alloced_sel_args > SEL_ARG::MAX_SEL_ARGS)
3409
4966
        break;
3410
4967
    }
3411
4968
    else
3412
4969
      next->next_key_part=key2;
3413
4970
  }
3414
 
  if (! key1)
3415
 
    return &optimizer::null_element;                    // Impossible ranges
 
4971
  if (!key1)
 
4972
    return &null_element;                       // Impossible ranges
3416
4973
  key1->use_count++;
3417
4974
  return key1;
3418
4975
}
3433
4990
    NULL if the result of AND operation is an empty interval {0}.
3434
4991
*/
3435
4992
 
3436
 
static optimizer::SEL_ARG *
3437
 
key_and(optimizer::RangeParameter *param,
3438
 
        optimizer::SEL_ARG *key1,
3439
 
        optimizer::SEL_ARG *key2,
3440
 
        uint32_t clone_flag)
 
4993
static SEL_ARG *
 
4994
key_and(RANGE_OPT_PARAM *param, SEL_ARG *key1, SEL_ARG *key2, uint clone_flag)
3441
4995
{
3442
 
  if (! key1)
 
4996
  if (!key1)
3443
4997
    return key2;
3444
 
  if (! key2)
 
4998
  if (!key2)
3445
4999
    return key1;
3446
5000
  if (key1->part != key2->part)
3447
5001
  {
3448
5002
    if (key1->part > key2->part)
3449
5003
    {
3450
 
      std::swap(key1, key2);
 
5004
      swap_variables(SEL_ARG *, key1, key2);
3451
5005
      clone_flag=swap_clone_flag(clone_flag);
3452
5006
    }
3453
5007
    // key1->part < key2->part
3454
5008
    key1->use_count--;
3455
5009
    if (key1->use_count > 0)
3456
 
      if (! (key1= key1->clone_tree(param)))
3457
 
        return 0;                               // OOM
 
5010
      if (!(key1= key1->clone_tree(param)))
 
5011
        return 0;                               // OOM
3458
5012
    return and_all_keys(param, key1, key2, clone_flag);
3459
5013
  }
3460
5014
 
3461
5015
  if (((clone_flag & CLONE_KEY2_MAYBE) &&
3462
 
       ! (clone_flag & CLONE_KEY1_MAYBE) &&
3463
 
       key2->type != optimizer::SEL_ARG::MAYBE_KEY) ||
3464
 
      key1->type == optimizer::SEL_ARG::MAYBE_KEY)
 
5016
       !(clone_flag & CLONE_KEY1_MAYBE) &&
 
5017
       key2->type != SEL_ARG::MAYBE_KEY) ||
 
5018
      key1->type == SEL_ARG::MAYBE_KEY)
3465
5019
  {                                             // Put simple key in key2
3466
 
    std::swap(key1, key2);
3467
 
    clone_flag= swap_clone_flag(clone_flag);
 
5020
    swap_variables(SEL_ARG *, key1, key2);
 
5021
    clone_flag=swap_clone_flag(clone_flag);
3468
5022
  }
3469
5023
 
3470
5024
  /* If one of the key is MAYBE_KEY then the found region may be smaller */
3471
 
  if (key2->type == optimizer::SEL_ARG::MAYBE_KEY)
 
5025
  if (key2->type == SEL_ARG::MAYBE_KEY)
3472
5026
  {
3473
5027
    if (key1->use_count > 1)
3474
5028
    {
3475
5029
      key1->use_count--;
3476
 
      if (! (key1=key1->clone_tree(param)))
3477
 
        return 0;                               // OOM
 
5030
      if (!(key1=key1->clone_tree(param)))
 
5031
        return 0;                               // OOM
3478
5032
      key1->use_count++;
3479
5033
    }
3480
 
    if (key1->type == optimizer::SEL_ARG::MAYBE_KEY)
 
5034
    if (key1->type == SEL_ARG::MAYBE_KEY)
3481
5035
    {                                           // Both are maybe key
3482
 
      key1->next_key_part= key_and(param,
3483
 
                                   key1->next_key_part,
3484
 
                                   key2->next_key_part,
3485
 
                                   clone_flag);
 
5036
      key1->next_key_part=key_and(param, key1->next_key_part, 
 
5037
                                  key2->next_key_part, clone_flag);
3486
5038
      if (key1->next_key_part &&
3487
 
          key1->next_key_part->type == optimizer::SEL_ARG::IMPOSSIBLE)
3488
 
        return key1;
 
5039
          key1->next_key_part->type == SEL_ARG::IMPOSSIBLE)
 
5040
        return key1;
3489
5041
    }
3490
5042
    else
3491
5043
    {
3492
5044
      key1->maybe_smaller();
3493
5045
      if (key2->next_key_part)
3494
5046
      {
3495
 
        key1->use_count--;                      // Incremented in and_all_keys
3496
 
        return and_all_keys(param, key1, key2, clone_flag);
 
5047
        key1->use_count--;                      // Incremented in and_all_keys
 
5048
        return and_all_keys(param, key1, key2, clone_flag);
3497
5049
      }
3498
5050
      key2->use_count--;                        // Key2 doesn't have a tree
3499
5051
    }
3502
5054
 
3503
5055
  key1->use_count--;
3504
5056
  key2->use_count--;
3505
 
  optimizer::SEL_ARG *e1= key1->first();
3506
 
  optimizer::SEL_ARG *e2= key2->first();
3507
 
  optimizer::SEL_ARG *new_tree= NULL;
 
5057
  SEL_ARG *e1=key1->first(), *e2=key2->first(), *new_tree=0;
3508
5058
 
3509
5059
  while (e1 && e2)
3510
5060
  {
3511
 
    int cmp= e1->cmp_min_to_min(e2);
 
5061
    int cmp=e1->cmp_min_to_min(e2);
3512
5062
    if (cmp < 0)
3513
5063
    {
3514
 
      if (get_range(&e1, &e2, key1))
3515
 
        continue;
 
5064
      if (get_range(&e1,&e2,key1))
 
5065
        continue;
3516
5066
    }
3517
 
    else if (get_range(&e2, &e1, key2))
 
5067
    else if (get_range(&e2,&e1,key2))
3518
5068
      continue;
3519
 
    optimizer::SEL_ARG *next= key_and(param,
3520
 
                                      e1->next_key_part,
3521
 
                                      e2->next_key_part,
3522
 
                                      clone_flag);
 
5069
    SEL_ARG *next=key_and(param, e1->next_key_part, e2->next_key_part,
 
5070
                          clone_flag);
3523
5071
    e1->increment_use_count(1);
3524
5072
    e2->increment_use_count(1);
3525
 
    if (! next || next->type != optimizer::SEL_ARG::IMPOSSIBLE)
 
5073
    if (!next || next->type != SEL_ARG::IMPOSSIBLE)
3526
5074
    {
3527
 
      optimizer::SEL_ARG *new_arg= e1->clone_and(e2);
3528
 
      if (! new_arg)
3529
 
        return &optimizer::null_element;                        // End of memory
 
5075
      SEL_ARG *new_arg= e1->clone_and(e2);
 
5076
      if (!new_arg)
 
5077
        return &null_element;                   // End of memory
3530
5078
      new_arg->next_key_part=next;
3531
 
      if (! new_tree)
 
5079
      if (!new_tree)
3532
5080
      {
3533
 
        new_tree=new_arg;
 
5081
        new_tree=new_arg;
3534
5082
      }
3535
5083
      else
3536
 
        new_tree=new_tree->insert(new_arg);
 
5084
        new_tree=new_tree->insert(new_arg);
3537
5085
    }
3538
5086
    if (e1->cmp_max_to_max(e2) < 0)
3539
5087
      e1=e1->next;                              // e1 can't overlapp next e2
3542
5090
  }
3543
5091
  key1->free_tree();
3544
5092
  key2->free_tree();
3545
 
  if (! new_tree)
3546
 
    return &optimizer::null_element;                    // Impossible range
 
5093
  if (!new_tree)
 
5094
    return &null_element;                       // Impossible range
3547
5095
  return new_tree;
3548
5096
}
3549
5097
 
3550
5098
 
3551
5099
static bool
3552
 
get_range(optimizer::SEL_ARG **e1, optimizer::SEL_ARG **e2, optimizer::SEL_ARG *root1)
 
5100
get_range(SEL_ARG **e1,SEL_ARG **e2,SEL_ARG *root1)
3553
5101
{
3554
 
  (*e1)= root1->find_range(*e2);                        // first e1->min < e2->min
 
5102
  (*e1)=root1->find_range(*e2);                 // first e1->min < e2->min
3555
5103
  if ((*e1)->cmp_max_to_min(*e2) < 0)
3556
5104
  {
3557
 
    if (! ((*e1)=(*e1)->next))
 
5105
    if (!((*e1)=(*e1)->next))
3558
5106
      return 1;
3559
5107
    if ((*e1)->cmp_min_to_max(*e2) > 0)
3560
5108
    {
3566
5114
}
3567
5115
 
3568
5116
 
 
5117
static SEL_ARG *
 
5118
key_or(RANGE_OPT_PARAM *param, SEL_ARG *key1,SEL_ARG *key2)
 
5119
{
 
5120
  if (!key1)
 
5121
  {
 
5122
    if (key2)
 
5123
    {
 
5124
      key2->use_count--;
 
5125
      key2->free_tree();
 
5126
    }
 
5127
    return 0;
 
5128
  }
 
5129
  if (!key2)
 
5130
  {
 
5131
    key1->use_count--;
 
5132
    key1->free_tree();
 
5133
    return 0;
 
5134
  }
 
5135
  key1->use_count--;
 
5136
  key2->use_count--;
 
5137
 
 
5138
  if (key1->part != key2->part)
 
5139
  {
 
5140
    key1->free_tree();
 
5141
    key2->free_tree();
 
5142
    return 0;                                   // Can't optimize this
 
5143
  }
 
5144
 
 
5145
  // If one of the key is MAYBE_KEY then the found region may be bigger
 
5146
  if (key1->type == SEL_ARG::MAYBE_KEY)
 
5147
  {
 
5148
    key2->free_tree();
 
5149
    key1->use_count++;
 
5150
    return key1;
 
5151
  }
 
5152
  if (key2->type == SEL_ARG::MAYBE_KEY)
 
5153
  {
 
5154
    key1->free_tree();
 
5155
    key2->use_count++;
 
5156
    return key2;
 
5157
  }
 
5158
 
 
5159
  if (key1->use_count > 0)
 
5160
  {
 
5161
    if (key2->use_count == 0 || key1->elements > key2->elements)
 
5162
    {
 
5163
      swap_variables(SEL_ARG *,key1,key2);
 
5164
    }
 
5165
    if (key1->use_count > 0 || !(key1=key1->clone_tree(param)))
 
5166
      return 0;                                 // OOM
 
5167
  }
 
5168
 
 
5169
  // Add tree at key2 to tree at key1
 
5170
  bool key2_shared=key2->use_count != 0;
 
5171
  key1->maybe_flag|=key2->maybe_flag;
 
5172
 
 
5173
  for (key2=key2->first(); key2; )
 
5174
  {
 
5175
    SEL_ARG *tmp=key1->find_range(key2);        // Find key1.min <= key2.min
 
5176
    int cmp;
 
5177
 
 
5178
    if (!tmp)
 
5179
    {
 
5180
      tmp=key1->first();                        // tmp.min > key2.min
 
5181
      cmp= -1;
 
5182
    }
 
5183
    else if ((cmp=tmp->cmp_max_to_min(key2)) < 0)
 
5184
    {                                           // Found tmp.max < key2.min
 
5185
      SEL_ARG *next=tmp->next;
 
5186
      if (cmp == -2 && eq_tree(tmp->next_key_part,key2->next_key_part))
 
5187
      {
 
5188
        // Join near ranges like tmp.max < 0 and key2.min >= 0
 
5189
        SEL_ARG *key2_next=key2->next;
 
5190
        if (key2_shared)
 
5191
        {
 
5192
          if (!(key2=new SEL_ARG(*key2)))
 
5193
            return 0;           // out of memory
 
5194
          key2->increment_use_count(key1->use_count+1);
 
5195
          key2->next=key2_next;                 // New copy of key2
 
5196
        }
 
5197
        key2->copy_min(tmp);
 
5198
        if (!(key1=key1->tree_delete(tmp)))
 
5199
        {                                       // Only one key in tree
 
5200
          key1=key2;
 
5201
          key1->make_root();
 
5202
          key2=key2_next;
 
5203
          break;
 
5204
        }
 
5205
      }
 
5206
      if (!(tmp=next))                          // tmp.min > key2.min
 
5207
        break;                                  // Copy rest of key2
 
5208
    }
 
5209
    if (cmp < 0)
 
5210
    {                                           // tmp.min > key2.min
 
5211
      int tmp_cmp;
 
5212
      if ((tmp_cmp=tmp->cmp_min_to_max(key2)) > 0) // if tmp.min > key2.max
 
5213
      {
 
5214
        if (tmp_cmp == 2 && eq_tree(tmp->next_key_part,key2->next_key_part))
 
5215
        {                                       // ranges are connected
 
5216
          tmp->copy_min_to_min(key2);
 
5217
          key1->merge_flags(key2);
 
5218
          if (tmp->min_flag & NO_MIN_RANGE &&
 
5219
              tmp->max_flag & NO_MAX_RANGE)
 
5220
          {
 
5221
            if (key1->maybe_flag)
 
5222
              return new SEL_ARG(SEL_ARG::MAYBE_KEY);
 
5223
            return 0;
 
5224
          }
 
5225
          key2->increment_use_count(-1);        // Free not used tree
 
5226
          key2=key2->next;
 
5227
          continue;
 
5228
        }
 
5229
        else
 
5230
        {
 
5231
          SEL_ARG *next=key2->next;             // Keys are not overlapping
 
5232
          if (key2_shared)
 
5233
          {
 
5234
            SEL_ARG *cpy= new SEL_ARG(*key2);   // Must make copy
 
5235
            if (!cpy)
 
5236
              return 0;                         // OOM
 
5237
            key1=key1->insert(cpy);
 
5238
            key2->increment_use_count(key1->use_count+1);
 
5239
          }
 
5240
          else
 
5241
            key1=key1->insert(key2);            // Will destroy key2_root
 
5242
          key2=next;
 
5243
          continue;
 
5244
        }
 
5245
      }
 
5246
    }
 
5247
 
 
5248
    // tmp.max >= key2.min && tmp.min <= key.max  (overlapping ranges)
 
5249
    if (eq_tree(tmp->next_key_part,key2->next_key_part))
 
5250
    {
 
5251
      if (tmp->is_same(key2))
 
5252
      {
 
5253
        tmp->merge_flags(key2);                 // Copy maybe flags
 
5254
        key2->increment_use_count(-1);          // Free not used tree
 
5255
      }
 
5256
      else
 
5257
      {
 
5258
        SEL_ARG *last=tmp;
 
5259
        while (last->next && last->next->cmp_min_to_max(key2) <= 0 &&
 
5260
               eq_tree(last->next->next_key_part,key2->next_key_part))
 
5261
        {
 
5262
          SEL_ARG *save=last;
 
5263
          last=last->next;
 
5264
          key1=key1->tree_delete(save);
 
5265
        }
 
5266
        last->copy_min(tmp);
 
5267
        if (last->copy_min(key2) || last->copy_max(key2))
 
5268
        {                                       // Full range
 
5269
          key1->free_tree();
 
5270
          for (; key2 ; key2=key2->next)
 
5271
            key2->increment_use_count(-1);      // Free not used tree
 
5272
          if (key1->maybe_flag)
 
5273
            return new SEL_ARG(SEL_ARG::MAYBE_KEY);
 
5274
          return 0;
 
5275
        }
 
5276
      }
 
5277
      key2=key2->next;
 
5278
      continue;
 
5279
    }
 
5280
 
 
5281
    if (cmp >= 0 && tmp->cmp_min_to_min(key2) < 0)
 
5282
    {                                           // tmp.min <= x < key2.min
 
5283
      SEL_ARG *new_arg=tmp->clone_first(key2);
 
5284
      if (!new_arg)
 
5285
        return 0;                               // OOM
 
5286
      if ((new_arg->next_key_part= key1->next_key_part))
 
5287
        new_arg->increment_use_count(key1->use_count+1);
 
5288
      tmp->copy_min_to_min(key2);
 
5289
      key1=key1->insert(new_arg);
 
5290
    }
 
5291
 
 
5292
    // tmp.min >= key2.min && tmp.min <= key2.max
 
5293
    SEL_ARG key(*key2);                         // Get copy we can modify
 
5294
    for (;;)
 
5295
    {
 
5296
      if (tmp->cmp_min_to_min(&key) > 0)
 
5297
      {                                         // key.min <= x < tmp.min
 
5298
        SEL_ARG *new_arg=key.clone_first(tmp);
 
5299
        if (!new_arg)
 
5300
          return 0;                             // OOM
 
5301
        if ((new_arg->next_key_part=key.next_key_part))
 
5302
          new_arg->increment_use_count(key1->use_count+1);
 
5303
        key1=key1->insert(new_arg);
 
5304
      }
 
5305
      if ((cmp=tmp->cmp_max_to_max(&key)) <= 0)
 
5306
      {                                         // tmp.min. <= x <= tmp.max
 
5307
        tmp->maybe_flag|= key.maybe_flag;
 
5308
        key.increment_use_count(key1->use_count+1);
 
5309
        tmp->next_key_part= key_or(param, tmp->next_key_part, key.next_key_part);
 
5310
        if (!cmp)                               // Key2 is ready
 
5311
          break;
 
5312
        key.copy_max_to_min(tmp);
 
5313
        if (!(tmp=tmp->next))
 
5314
        {
 
5315
          SEL_ARG *tmp2= new SEL_ARG(key);
 
5316
          if (!tmp2)
 
5317
            return 0;                           // OOM
 
5318
          key1=key1->insert(tmp2);
 
5319
          key2=key2->next;
 
5320
          goto end;
 
5321
        }
 
5322
        if (tmp->cmp_min_to_max(&key) > 0)
 
5323
        {
 
5324
          SEL_ARG *tmp2= new SEL_ARG(key);
 
5325
          if (!tmp2)
 
5326
            return 0;                           // OOM
 
5327
          key1=key1->insert(tmp2);
 
5328
          break;
 
5329
        }
 
5330
      }
 
5331
      else
 
5332
      {
 
5333
        SEL_ARG *new_arg=tmp->clone_last(&key); // tmp.min <= x <= key.max
 
5334
        if (!new_arg)
 
5335
          return 0;                             // OOM
 
5336
        tmp->copy_max_to_min(&key);
 
5337
        tmp->increment_use_count(key1->use_count+1);
 
5338
        /* Increment key count as it may be used for next loop */
 
5339
        key.increment_use_count(1);
 
5340
        new_arg->next_key_part= key_or(param, tmp->next_key_part, key.next_key_part);
 
5341
        key1=key1->insert(new_arg);
 
5342
        break;
 
5343
      }
 
5344
    }
 
5345
    key2=key2->next;
 
5346
  }
 
5347
 
 
5348
end:
 
5349
  while (key2)
 
5350
  {
 
5351
    SEL_ARG *next=key2->next;
 
5352
    if (key2_shared)
 
5353
    {
 
5354
      SEL_ARG *tmp=new SEL_ARG(*key2);          // Must make copy
 
5355
      if (!tmp)
 
5356
        return 0;
 
5357
      key2->increment_use_count(key1->use_count+1);
 
5358
      key1=key1->insert(tmp);
 
5359
    }
 
5360
    else
 
5361
      key1=key1->insert(key2);                  // Will destroy key2_root
 
5362
    key2=next;
 
5363
  }
 
5364
  key1->use_count++;
 
5365
  return key1;
 
5366
}
 
5367
 
 
5368
 
 
5369
/* Compare if two trees are equal */
 
5370
 
 
5371
static bool eq_tree(SEL_ARG* a,SEL_ARG *b)
 
5372
{
 
5373
  if (a == b)
 
5374
    return 1;
 
5375
  if (!a || !b || !a->is_same(b))
 
5376
    return 0;
 
5377
  if (a->left != &null_element && b->left != &null_element)
 
5378
  {
 
5379
    if (!eq_tree(a->left,b->left))
 
5380
      return 0;
 
5381
  }
 
5382
  else if (a->left != &null_element || b->left != &null_element)
 
5383
    return 0;
 
5384
  if (a->right != &null_element && b->right != &null_element)
 
5385
  {
 
5386
    if (!eq_tree(a->right,b->right))
 
5387
      return 0;
 
5388
  }
 
5389
  else if (a->right != &null_element || b->right != &null_element)
 
5390
    return 0;
 
5391
  if (a->next_key_part != b->next_key_part)
 
5392
  {                                             // Sub range
 
5393
    if (!a->next_key_part != !b->next_key_part ||
 
5394
        !eq_tree(a->next_key_part, b->next_key_part))
 
5395
      return 0;
 
5396
  }
 
5397
  return 1;
 
5398
}
 
5399
 
 
5400
 
 
5401
SEL_ARG *
 
5402
SEL_ARG::insert(SEL_ARG *key)
 
5403
{
 
5404
  SEL_ARG *element, **par= NULL, *last_element= NULL;
 
5405
 
 
5406
  for (element= this; element != &null_element ; )
 
5407
  {
 
5408
    last_element=element;
 
5409
    if (key->cmp_min_to_min(element) > 0)
 
5410
    {
 
5411
      par= &element->right; element= element->right;
 
5412
    }
 
5413
    else
 
5414
    {
 
5415
      par = &element->left; element= element->left;
 
5416
    }
 
5417
  }
 
5418
  *par=key;
 
5419
  key->parent=last_element;
 
5420
        /* Link in list */
 
5421
  if (par == &last_element->left)
 
5422
  {
 
5423
    key->next=last_element;
 
5424
    if ((key->prev=last_element->prev))
 
5425
      key->prev->next=key;
 
5426
    last_element->prev=key;
 
5427
  }
 
5428
  else
 
5429
  {
 
5430
    if ((key->next=last_element->next))
 
5431
      key->next->prev=key;
 
5432
    key->prev=last_element;
 
5433
    last_element->next=key;
 
5434
  }
 
5435
  key->left=key->right= &null_element;
 
5436
  SEL_ARG *root=rb_insert(key);                 // rebalance tree
 
5437
  root->use_count=this->use_count;              // copy root info
 
5438
  root->elements= this->elements+1;
 
5439
  root->maybe_flag=this->maybe_flag;
 
5440
  return root;
 
5441
}
 
5442
 
 
5443
 
 
5444
/*
 
5445
** Find best key with min <= given key
 
5446
** Because the call context this should never return 0 to get_range
 
5447
*/
 
5448
 
 
5449
SEL_ARG *
 
5450
SEL_ARG::find_range(SEL_ARG *key)
 
5451
{
 
5452
  SEL_ARG *element=this,*found=0;
 
5453
 
 
5454
  for (;;)
 
5455
  {
 
5456
    if (element == &null_element)
 
5457
      return found;
 
5458
    int cmp=element->cmp_min_to_min(key);
 
5459
    if (cmp == 0)
 
5460
      return element;
 
5461
    if (cmp < 0)
 
5462
    {
 
5463
      found=element;
 
5464
      element=element->right;
 
5465
    }
 
5466
    else
 
5467
      element=element->left;
 
5468
  }
 
5469
}
 
5470
 
 
5471
 
 
5472
/*
 
5473
  Remove a element from the tree
 
5474
 
 
5475
  SYNOPSIS
 
5476
    tree_delete()
 
5477
    key         Key that is to be deleted from tree (this)
 
5478
 
 
5479
  NOTE
 
5480
    This also frees all sub trees that is used by the element
 
5481
 
 
5482
  RETURN
 
5483
    root of new tree (with key deleted)
 
5484
*/
 
5485
 
 
5486
SEL_ARG *
 
5487
SEL_ARG::tree_delete(SEL_ARG *key)
 
5488
{
 
5489
  enum leaf_color remove_color;
 
5490
  SEL_ARG *root,*nod,**par,*fix_par;
 
5491
 
 
5492
  root=this;
 
5493
  this->parent= 0;
 
5494
 
 
5495
  /* Unlink from list */
 
5496
  if (key->prev)
 
5497
    key->prev->next=key->next;
 
5498
  if (key->next)
 
5499
    key->next->prev=key->prev;
 
5500
  key->increment_use_count(-1);
 
5501
  if (!key->parent)
 
5502
    par= &root;
 
5503
  else
 
5504
    par=key->parent_ptr();
 
5505
 
 
5506
  if (key->left == &null_element)
 
5507
  {
 
5508
    *par=nod=key->right;
 
5509
    fix_par=key->parent;
 
5510
    if (nod != &null_element)
 
5511
      nod->parent=fix_par;
 
5512
    remove_color= key->color;
 
5513
  }
 
5514
  else if (key->right == &null_element)
 
5515
  {
 
5516
    *par= nod=key->left;
 
5517
    nod->parent=fix_par=key->parent;
 
5518
    remove_color= key->color;
 
5519
  }
 
5520
  else
 
5521
  {
 
5522
    SEL_ARG *tmp=key->next;                     // next bigger key (exist!)
 
5523
    nod= *tmp->parent_ptr()= tmp->right;        // unlink tmp from tree
 
5524
    fix_par=tmp->parent;
 
5525
    if (nod != &null_element)
 
5526
      nod->parent=fix_par;
 
5527
    remove_color= tmp->color;
 
5528
 
 
5529
    tmp->parent=key->parent;                    // Move node in place of key
 
5530
    (tmp->left=key->left)->parent=tmp;
 
5531
    if ((tmp->right=key->right) != &null_element)
 
5532
      tmp->right->parent=tmp;
 
5533
    tmp->color=key->color;
 
5534
    *par=tmp;
 
5535
    if (fix_par == key)                         // key->right == key->next
 
5536
      fix_par=tmp;                              // new parent of nod
 
5537
  }
 
5538
 
 
5539
  if (root == &null_element)
 
5540
    return(0);                          // Maybe root later
 
5541
  if (remove_color == BLACK)
 
5542
    root=rb_delete_fixup(root,nod,fix_par);
 
5543
  test_rb_tree(root,root->parent);
 
5544
 
 
5545
  root->use_count=this->use_count;              // Fix root counters
 
5546
  root->elements=this->elements-1;
 
5547
  root->maybe_flag=this->maybe_flag;
 
5548
  return(root);
 
5549
}
 
5550
 
 
5551
 
 
5552
        /* Functions to fix up the tree after insert and delete */
 
5553
 
 
5554
static void left_rotate(SEL_ARG **root,SEL_ARG *leaf)
 
5555
{
 
5556
  SEL_ARG *y=leaf->right;
 
5557
  leaf->right=y->left;
 
5558
  if (y->left != &null_element)
 
5559
    y->left->parent=leaf;
 
5560
  if (!(y->parent=leaf->parent))
 
5561
    *root=y;
 
5562
  else
 
5563
    *leaf->parent_ptr()=y;
 
5564
  y->left=leaf;
 
5565
  leaf->parent=y;
 
5566
}
 
5567
 
 
5568
static void right_rotate(SEL_ARG **root,SEL_ARG *leaf)
 
5569
{
 
5570
  SEL_ARG *y=leaf->left;
 
5571
  leaf->left=y->right;
 
5572
  if (y->right != &null_element)
 
5573
    y->right->parent=leaf;
 
5574
  if (!(y->parent=leaf->parent))
 
5575
    *root=y;
 
5576
  else
 
5577
    *leaf->parent_ptr()=y;
 
5578
  y->right=leaf;
 
5579
  leaf->parent=y;
 
5580
}
 
5581
 
 
5582
 
 
5583
SEL_ARG *
 
5584
SEL_ARG::rb_insert(SEL_ARG *leaf)
 
5585
{
 
5586
  SEL_ARG *y,*par,*par2,*root;
 
5587
  root= this; root->parent= 0;
 
5588
 
 
5589
  leaf->color=RED;
 
5590
  while (leaf != root && (par= leaf->parent)->color == RED)
 
5591
  {                                     // This can't be root or 1 level under
 
5592
    if (par == (par2= leaf->parent->parent)->left)
 
5593
    {
 
5594
      y= par2->right;
 
5595
      if (y->color == RED)
 
5596
      {
 
5597
        par->color=BLACK;
 
5598
        y->color=BLACK;
 
5599
        leaf=par2;
 
5600
        leaf->color=RED;                /* And the loop continues */
 
5601
      }
 
5602
      else
 
5603
      {
 
5604
        if (leaf == par->right)
 
5605
        {
 
5606
          left_rotate(&root,leaf->parent);
 
5607
          par=leaf;                     /* leaf is now parent to old leaf */
 
5608
        }
 
5609
        par->color=BLACK;
 
5610
        par2->color=RED;
 
5611
        right_rotate(&root,par2);
 
5612
        break;
 
5613
      }
 
5614
    }
 
5615
    else
 
5616
    {
 
5617
      y= par2->left;
 
5618
      if (y->color == RED)
 
5619
      {
 
5620
        par->color=BLACK;
 
5621
        y->color=BLACK;
 
5622
        leaf=par2;
 
5623
        leaf->color=RED;                /* And the loop continues */
 
5624
      }
 
5625
      else
 
5626
      {
 
5627
        if (leaf == par->left)
 
5628
        {
 
5629
          right_rotate(&root,par);
 
5630
          par=leaf;
 
5631
        }
 
5632
        par->color=BLACK;
 
5633
        par2->color=RED;
 
5634
        left_rotate(&root,par2);
 
5635
        break;
 
5636
      }
 
5637
    }
 
5638
  }
 
5639
  root->color=BLACK;
 
5640
  test_rb_tree(root,root->parent);
 
5641
  return root;
 
5642
}
 
5643
 
 
5644
 
 
5645
SEL_ARG *rb_delete_fixup(SEL_ARG *root,SEL_ARG *key,SEL_ARG *par)
 
5646
{
 
5647
  SEL_ARG *x,*w;
 
5648
  root->parent=0;
 
5649
 
 
5650
  x= key;
 
5651
  while (x != root && x->color == SEL_ARG::BLACK)
 
5652
  {
 
5653
    if (x == par->left)
 
5654
    {
 
5655
      w=par->right;
 
5656
      if (w->color == SEL_ARG::RED)
 
5657
      {
 
5658
        w->color=SEL_ARG::BLACK;
 
5659
        par->color=SEL_ARG::RED;
 
5660
        left_rotate(&root,par);
 
5661
        w=par->right;
 
5662
      }
 
5663
      if (w->left->color == SEL_ARG::BLACK && w->right->color == SEL_ARG::BLACK)
 
5664
      {
 
5665
        w->color=SEL_ARG::RED;
 
5666
        x=par;
 
5667
      }
 
5668
      else
 
5669
      {
 
5670
        if (w->right->color == SEL_ARG::BLACK)
 
5671
        {
 
5672
          w->left->color=SEL_ARG::BLACK;
 
5673
          w->color=SEL_ARG::RED;
 
5674
          right_rotate(&root,w);
 
5675
          w=par->right;
 
5676
        }
 
5677
        w->color=par->color;
 
5678
        par->color=SEL_ARG::BLACK;
 
5679
        w->right->color=SEL_ARG::BLACK;
 
5680
        left_rotate(&root,par);
 
5681
        x=root;
 
5682
        break;
 
5683
      }
 
5684
    }
 
5685
    else
 
5686
    {
 
5687
      w=par->left;
 
5688
      if (w->color == SEL_ARG::RED)
 
5689
      {
 
5690
        w->color=SEL_ARG::BLACK;
 
5691
        par->color=SEL_ARG::RED;
 
5692
        right_rotate(&root,par);
 
5693
        w=par->left;
 
5694
      }
 
5695
      if (w->right->color == SEL_ARG::BLACK && w->left->color == SEL_ARG::BLACK)
 
5696
      {
 
5697
        w->color=SEL_ARG::RED;
 
5698
        x=par;
 
5699
      }
 
5700
      else
 
5701
      {
 
5702
        if (w->left->color == SEL_ARG::BLACK)
 
5703
        {
 
5704
          w->right->color=SEL_ARG::BLACK;
 
5705
          w->color=SEL_ARG::RED;
 
5706
          left_rotate(&root,w);
 
5707
          w=par->left;
 
5708
        }
 
5709
        w->color=par->color;
 
5710
        par->color=SEL_ARG::BLACK;
 
5711
        w->left->color=SEL_ARG::BLACK;
 
5712
        right_rotate(&root,par);
 
5713
        x=root;
 
5714
        break;
 
5715
      }
 
5716
    }
 
5717
    par=x->parent;
 
5718
  }
 
5719
  x->color=SEL_ARG::BLACK;
 
5720
  return root;
 
5721
}
 
5722
 
 
5723
 
 
5724
        /* Test that the properties for a red-black tree hold */
 
5725
 
 
5726
#ifdef EXTRA_DEBUG
 
5727
int test_rb_tree(SEL_ARG *element,SEL_ARG *parent)
 
5728
{
 
5729
  int count_l,count_r;
 
5730
 
 
5731
  if (element == &null_element)
 
5732
    return 0;                                   // Found end of tree
 
5733
  if (element->parent != parent)
 
5734
  {
 
5735
    sql_print_error("Wrong tree: Parent doesn't point at parent");
 
5736
    return -1;
 
5737
  }
 
5738
  if (element->color == SEL_ARG::RED &&
 
5739
      (element->left->color == SEL_ARG::RED ||
 
5740
       element->right->color == SEL_ARG::RED))
 
5741
  {
 
5742
    sql_print_error("Wrong tree: Found two red in a row");
 
5743
    return -1;
 
5744
  }
 
5745
  if (element->left == element->right && element->left != &null_element)
 
5746
  {                                             // Dummy test
 
5747
    sql_print_error("Wrong tree: Found right == left");
 
5748
    return -1;
 
5749
  }
 
5750
  count_l=test_rb_tree(element->left,element);
 
5751
  count_r=test_rb_tree(element->right,element);
 
5752
  if (count_l >= 0 && count_r >= 0)
 
5753
  {
 
5754
    if (count_l == count_r)
 
5755
      return count_l+(element->color == SEL_ARG::BLACK);
 
5756
    sql_print_error("Wrong tree: Incorrect black-count: %d - %d",
 
5757
            count_l,count_r);
 
5758
  }
 
5759
  return -1;                                    // Error, no more warnings
 
5760
}
 
5761
 
 
5762
 
 
5763
/*
 
5764
  Count how many times SEL_ARG graph "root" refers to its part "key"
 
5765
  
 
5766
  SYNOPSIS
 
5767
    count_key_part_usage()
 
5768
      root  An RB-Root node in a SEL_ARG graph.
 
5769
      key   Another RB-Root node in that SEL_ARG graph.
 
5770
 
 
5771
  DESCRIPTION
 
5772
    The passed "root" node may refer to "key" node via root->next_key_part,
 
5773
    root->next->n
 
5774
 
 
5775
    This function counts how many times the node "key" is referred (via
 
5776
    SEL_ARG::next_key_part) by 
 
5777
     - intervals of RB-tree pointed by "root", 
 
5778
     - intervals of RB-trees that are pointed by SEL_ARG::next_key_part from 
 
5779
       intervals of RB-tree pointed by "root",
 
5780
     - and so on.
 
5781
    
 
5782
    Here is an example (horizontal links represent next_key_part pointers, 
 
5783
    vertical links - next/prev prev pointers):  
 
5784
    
 
5785
         +----+               $
 
5786
         |root|-----------------+
 
5787
         +----+               $ |
 
5788
           |                  $ |
 
5789
           |                  $ |
 
5790
         +----+       +---+   $ |     +---+    Here the return value
 
5791
         |    |- ... -|   |---$-+--+->|key|    will be 4.
 
5792
         +----+       +---+   $ |  |  +---+
 
5793
           |                  $ |  |
 
5794
          ...                 $ |  |
 
5795
           |                  $ |  |
 
5796
         +----+   +---+       $ |  |
 
5797
         |    |---|   |---------+  |
 
5798
         +----+   +---+       $    |
 
5799
           |        |         $    |
 
5800
          ...     +---+       $    |
 
5801
                  |   |------------+
 
5802
                  +---+       $
 
5803
  RETURN 
 
5804
    Number of links to "key" from nodes reachable from "root".
 
5805
*/
 
5806
 
 
5807
static ulong count_key_part_usage(SEL_ARG *root, SEL_ARG *key)
 
5808
{
 
5809
  ulong count= 0;
 
5810
  for (root=root->first(); root ; root=root->next)
 
5811
  {
 
5812
    if (root->next_key_part)
 
5813
    {
 
5814
      if (root->next_key_part == key)
 
5815
        count++;
 
5816
      if (root->next_key_part->part < key->part)
 
5817
        count+=count_key_part_usage(root->next_key_part,key);
 
5818
    }
 
5819
  }
 
5820
  return count;
 
5821
}
 
5822
 
 
5823
 
 
5824
/*
 
5825
  Check if SEL_ARG::use_count value is correct
 
5826
 
 
5827
  SYNOPSIS
 
5828
    SEL_ARG::test_use_count()
 
5829
      root  The root node of the SEL_ARG graph (an RB-tree root node that
 
5830
            has the least value of sel_arg->part in the entire graph, and
 
5831
            thus is the "origin" of the graph)
 
5832
 
 
5833
  DESCRIPTION
 
5834
    Check if SEL_ARG::use_count value is correct. See the definition of
 
5835
    use_count for what is "correct".
 
5836
*/
 
5837
 
 
5838
void SEL_ARG::test_use_count(SEL_ARG *root)
 
5839
{
 
5840
  uint e_count=0;
 
5841
  if (this == root && use_count != 1)
 
5842
  {
 
5843
    sql_print_information("Use_count: Wrong count %lu for root",use_count);
 
5844
    return;
 
5845
  }
 
5846
  if (this->type != SEL_ARG::KEY_RANGE)
 
5847
    return;
 
5848
  for (SEL_ARG *pos=first(); pos ; pos=pos->next)
 
5849
  {
 
5850
    e_count++;
 
5851
    if (pos->next_key_part)
 
5852
    {
 
5853
      ulong count=count_key_part_usage(root,pos->next_key_part);
 
5854
      if (count > pos->next_key_part->use_count)
 
5855
      {
 
5856
        sql_print_information("Use_count: Wrong count for key at 0x%lx, %lu "
 
5857
                              "should be %lu", (long unsigned int)pos,
 
5858
                              pos->next_key_part->use_count, count);
 
5859
        return;
 
5860
      }
 
5861
      pos->next_key_part->test_use_count(root);
 
5862
    }
 
5863
  }
 
5864
  if (e_count != elements)
 
5865
    sql_print_warning("Wrong use count: %u (should be %u) for tree at 0x%lx",
 
5866
                      e_count, elements, (long unsigned int) this);
 
5867
}
 
5868
 
 
5869
#endif
 
5870
 
3569
5871
/****************************************************************************
3570
5872
  MRR Range Sequence Interface implementation that walks a SEL_ARG* tree.
3571
5873
 ****************************************************************************/
3572
5874
 
3573
5875
/* MRR range sequence, SEL_ARG* implementation: stack entry */
3574
 
typedef struct st_range_seq_entry
 
5876
typedef struct st_range_seq_entry 
3575
5877
{
3576
 
  /*
 
5878
  /* 
3577
5879
    Pointers in min and max keys. They point to right-after-end of key
3578
5880
    images. The 0-th entry has these pointing to key tuple start.
3579
5881
  */
3580
 
  unsigned char *min_key, *max_key;
3581
 
 
3582
 
  /*
 
5882
  uchar *min_key, *max_key;
 
5883
  
 
5884
  /* 
3583
5885
    Flags, for {keypart0, keypart1, ... this_keypart} subtuple.
3584
5886
    min_key_flag may have NULL_RANGE set.
3585
5887
  */
3586
 
  uint32_t min_key_flag, max_key_flag;
3587
 
 
 
5888
  uint min_key_flag, max_key_flag;
 
5889
  
3588
5890
  /* Number of key parts */
3589
 
  uint32_t min_key_parts, max_key_parts;
3590
 
  optimizer::SEL_ARG *key_tree;
 
5891
  uint min_key_parts, max_key_parts;
 
5892
  SEL_ARG *key_tree;
3591
5893
} RANGE_SEQ_ENTRY;
3592
5894
 
3593
5895
 
3596
5898
*/
3597
5899
typedef struct st_sel_arg_range_seq
3598
5900
{
3599
 
  uint32_t keyno;      /* index of used tree in optimizer::SEL_TREE structure */
3600
 
  uint32_t real_keyno; /* Number of the index in tables */
3601
 
  optimizer::Parameter *param;
3602
 
  optimizer::SEL_ARG *start; /* Root node of the traversed SEL_ARG* graph */
3603
 
 
 
5901
  uint keyno;      /* index of used tree in SEL_TREE structure */
 
5902
  uint real_keyno; /* Number of the index in tables */
 
5903
  PARAM *param;
 
5904
  SEL_ARG *start; /* Root node of the traversed SEL_ARG* graph */
 
5905
  
3604
5906
  RANGE_SEQ_ENTRY stack[MAX_REF_PARTS];
3605
5907
  int i; /* Index of last used element in the above array */
3606
 
 
 
5908
  
3607
5909
  bool at_start; /* true <=> The traversal has just started */
3608
5910
} SEL_ARG_RANGE_SEQ;
3609
5911
 
3614
5916
  SYNOPSIS
3615
5917
    init()
3616
5918
      init_params  SEL_ARG tree traversal context
3617
 
      n_ranges     [ignored] The number of ranges obtained
 
5919
      n_ranges     [ignored] The number of ranges obtained 
3618
5920
      flags        [ignored] HA_MRR_SINGLE_POINT, HA_MRR_FIXED_KEY
3619
5921
 
3620
5922
  RETURN
3621
5923
    Value of init_param
3622
5924
*/
3623
5925
 
3624
 
static range_seq_t sel_arg_range_seq_init(void *init_param, uint32_t, uint32_t)
 
5926
range_seq_t sel_arg_range_seq_init(void *init_param,
 
5927
                                   uint n_ranges __attribute__((unused)),
 
5928
                                   uint flags __attribute__((unused)))
3625
5929
{
3626
5930
  SEL_ARG_RANGE_SEQ *seq= (SEL_ARG_RANGE_SEQ*)init_param;
3627
5931
  seq->at_start= true;
3638
5942
}
3639
5943
 
3640
5944
 
3641
 
static void step_down_to(SEL_ARG_RANGE_SEQ *arg, optimizer::SEL_ARG *key_tree)
 
5945
static void step_down_to(SEL_ARG_RANGE_SEQ *arg, SEL_ARG *key_tree)
3642
5946
{
3643
5947
  RANGE_SEQ_ENTRY *cur= &arg->stack[arg->i+1];
3644
5948
  RANGE_SEQ_ENTRY *prev= &arg->stack[arg->i];
3645
 
 
 
5949
  
3646
5950
  cur->key_tree= key_tree;
3647
5951
  cur->min_key= prev->min_key;
3648
5952
  cur->max_key= prev->max_key;
3666
5970
 
3667
5971
/*
3668
5972
  Range sequence interface, SEL_ARG* implementation: get the next interval
3669
 
 
 
5973
  
3670
5974
  SYNOPSIS
3671
5975
    sel_arg_range_seq_next()
3672
5976
      rseq        Value returned from sel_arg_range_seq_init
3688
5992
*/
3689
5993
 
3690
5994
//psergey-merge-todo: support check_quick_keys:max_keypart
3691
 
static uint32_t sel_arg_range_seq_next(range_seq_t rseq, KEY_MULTI_RANGE *range)
 
5995
uint sel_arg_range_seq_next(range_seq_t rseq, KEY_MULTI_RANGE *range)
3692
5996
{
3693
 
  optimizer::SEL_ARG *key_tree;
 
5997
  SEL_ARG *key_tree;
3694
5998
  SEL_ARG_RANGE_SEQ *seq= (SEL_ARG_RANGE_SEQ*)rseq;
3695
5999
  if (seq->at_start)
3696
6000
  {
3701
6005
 
3702
6006
  key_tree= seq->stack[seq->i].key_tree;
3703
6007
  /* Ok, we're at some "full tuple" position in the tree */
3704
 
 
 
6008
 
3705
6009
  /* Step down if we can */
3706
 
  if (key_tree->next && key_tree->next != &optimizer::null_element)
 
6010
  if (key_tree->next && key_tree->next != &null_element)
3707
6011
  {
3708
6012
    //step down; (update the tuple, we'll step right and stay there)
3709
6013
    seq->i--;
3723
6027
    key_tree= seq->stack[seq->i].key_tree;
3724
6028
 
3725
6029
    /* Step down if we can */
3726
 
    if (key_tree->next && key_tree->next != &optimizer::null_element)
 
6030
    if (key_tree->next && key_tree->next != &null_element)
3727
6031
    {
3728
6032
      // Step down; update the tuple
3729
6033
      seq->i--;
3738
6042
    Walk right-up while we can
3739
6043
  */
3740
6044
walk_right_n_up:
3741
 
  while (key_tree->next_key_part && key_tree->next_key_part != &optimizer::null_element &&
 
6045
  while (key_tree->next_key_part && key_tree->next_key_part != &null_element && 
3742
6046
         key_tree->next_key_part->part == key_tree->part + 1 &&
3743
 
         key_tree->next_key_part->type == optimizer::SEL_ARG::KEY_RANGE)
 
6047
         key_tree->next_key_part->type == SEL_ARG::KEY_RANGE)
3744
6048
  {
3745
6049
    {
3746
6050
      RANGE_SEQ_ENTRY *cur= &seq->stack[seq->i];
3747
 
      uint32_t min_key_length= cur->min_key - seq->param->min_key;
3748
 
      uint32_t max_key_length= cur->max_key - seq->param->max_key;
3749
 
      uint32_t len= cur->min_key - cur[-1].min_key;
3750
 
      if (! (min_key_length == max_key_length &&
3751
 
          ! memcmp(cur[-1].min_key, cur[-1].max_key, len) &&
3752
 
          ! key_tree->min_flag && !key_tree->max_flag))
 
6051
      uint min_key_length= cur->min_key - seq->param->min_key;
 
6052
      uint max_key_length= cur->max_key - seq->param->max_key;
 
6053
      uint len= cur->min_key - cur[-1].min_key;
 
6054
      if (!(min_key_length == max_key_length &&
 
6055
            !memcmp(cur[-1].min_key, cur[-1].max_key, len) &&
 
6056
            !key_tree->min_flag && !key_tree->max_flag))
3753
6057
      {
3754
6058
        seq->param->is_ror_scan= false;
3755
 
        if (! key_tree->min_flag)
3756
 
          cur->min_key_parts +=
 
6059
        if (!key_tree->min_flag)
 
6060
          cur->min_key_parts += 
3757
6061
            key_tree->next_key_part->store_min_key(seq->param->key[seq->keyno],
3758
6062
                                                   &cur->min_key,
3759
6063
                                                   &cur->min_key_flag);
3760
 
        if (! key_tree->max_flag)
3761
 
          cur->max_key_parts +=
 
6064
        if (!key_tree->max_flag)
 
6065
          cur->max_key_parts += 
3762
6066
            key_tree->next_key_part->store_max_key(seq->param->key[seq->keyno],
3763
6067
                                                   &cur->max_key,
3764
6068
                                                   &cur->max_key_flag);
3765
6069
        break;
3766
6070
      }
3767
6071
    }
3768
 
 
 
6072
  
3769
6073
    /*
3770
6074
      Ok, current atomic interval is in form "t.field=const" and there is
3771
6075
      next_key_part interval. Step right, and walk up from there.
3773
6077
    key_tree= key_tree->next_key_part;
3774
6078
 
3775
6079
walk_up_n_right:
3776
 
    while (key_tree->prev && key_tree->prev != &optimizer::null_element)
 
6080
    while (key_tree->prev && key_tree->prev != &null_element)
3777
6081
    {
3778
6082
      /* Step up */
3779
6083
      key_tree= key_tree->prev;
3783
6087
 
3784
6088
  /* Ok got a tuple */
3785
6089
  RANGE_SEQ_ENTRY *cur= &seq->stack[seq->i];
3786
 
 
 
6090
  
3787
6091
  range->ptr= (char*)(int)(key_tree->part);
3788
6092
  {
3789
6093
    range->range_flag= cur->min_key_flag | cur->max_key_flag;
3790
 
 
 
6094
    
3791
6095
    range->start_key.key=    seq->param->min_key;
3792
6096
    range->start_key.length= cur->min_key - seq->param->min_key;
3793
6097
    range->start_key.keypart_map= make_prev_keypart_map(cur->min_key_parts);
3794
 
    range->start_key.flag= (cur->min_key_flag & NEAR_MIN ? HA_READ_AFTER_KEY :
 
6098
    range->start_key.flag= (cur->min_key_flag & NEAR_MIN ? HA_READ_AFTER_KEY : 
3795
6099
                                                           HA_READ_KEY_EXACT);
3796
6100
 
3797
6101
    range->end_key.key=    seq->param->max_key;
3798
6102
    range->end_key.length= cur->max_key - seq->param->max_key;
3799
 
    range->end_key.flag= (cur->max_key_flag & NEAR_MAX ? HA_READ_BEFORE_KEY :
 
6103
    range->end_key.flag= (cur->max_key_flag & NEAR_MAX ? HA_READ_BEFORE_KEY : 
3800
6104
                                                         HA_READ_AFTER_KEY);
3801
6105
    range->end_key.keypart_map= make_prev_keypart_map(cur->max_key_parts);
3802
6106
 
3803
6107
    if (!(cur->min_key_flag & ~NULL_RANGE) && !cur->max_key_flag &&
3804
 
        (uint32_t)key_tree->part+1 == seq->param->table->key_info[seq->real_keyno].key_parts &&
 
6108
        (uint)key_tree->part+1 == seq->param->table->key_info[seq->real_keyno].key_parts &&
3805
6109
        (seq->param->table->key_info[seq->real_keyno].flags & (HA_NOSAME)) ==
3806
6110
        HA_NOSAME &&
3807
6111
        range->start_key.length == range->end_key.length &&
3808
6112
        !memcmp(seq->param->min_key,seq->param->max_key,range->start_key.length))
3809
6113
      range->range_flag= UNIQUE_RANGE | (cur->min_key_flag & NULL_RANGE);
3810
 
 
 
6114
      
3811
6115
    if (seq->param->is_ror_scan)
3812
6116
    {
3813
6117
      /*
3827
6131
    }
3828
6132
  }
3829
6133
  seq->param->range_count++;
3830
 
  seq->param->max_key_part= max(seq->param->max_key_part,(uint32_t)key_tree->part);
 
6134
  seq->param->max_key_part=max(seq->param->max_key_part,key_tree->part);
3831
6135
  return 0;
3832
6136
}
3833
6137
 
3834
6138
 
3835
6139
/*
3836
 
  Calculate cost and E(#rows) for a given index and intervals tree
 
6140
  Calculate cost and E(#rows) for a given index and intervals tree 
3837
6141
 
3838
6142
  SYNOPSIS
3839
6143
    check_quick_select()
3840
6144
      param             Parameter from test_quick_select
3841
 
      idx               Number of index to use in Parameter::key optimizer::SEL_TREE::key
 
6145
      idx               Number of index to use in PARAM::key SEL_TREE::key
3842
6146
      index_only        true  - assume only index tuples will be accessed
3843
6147
                        false - assume full table rows will be read
3844
6148
      tree              Transformed selection condition, tree->key[idx] holds
3856
6160
 
3857
6161
  RETURN
3858
6162
    Estimate # of records to be retrieved.
3859
 
    HA_POS_ERROR if estimate calculation failed due to table Cursor problems.
 
6163
    HA_POS_ERROR if estimate calculation failed due to table handler problems.
3860
6164
*/
3861
6165
 
3862
6166
static
3863
 
ha_rows check_quick_select(Session *session,
3864
 
                           optimizer::Parameter *param,
3865
 
                           uint32_t idx,
3866
 
                           bool index_only,
3867
 
                           optimizer::SEL_ARG *tree,
3868
 
                           bool update_tbl_stats,
3869
 
                           uint32_t *mrr_flags,
3870
 
                           uint32_t *bufsize,
3871
 
                           optimizer::CostVector *cost)
 
6167
ha_rows check_quick_select(PARAM *param, uint idx, bool index_only,
 
6168
                           SEL_ARG *tree, bool update_tbl_stats, 
 
6169
                           uint *mrr_flags, uint *bufsize, COST_VECT *cost)
3872
6170
{
3873
6171
  SEL_ARG_RANGE_SEQ seq;
3874
6172
  RANGE_SEQ_IF seq_if = {sel_arg_range_seq_init, sel_arg_range_seq_next};
3875
 
  Cursor *cursor= param->table->cursor;
 
6173
  handler *file= param->table->file;
3876
6174
  ha_rows rows;
3877
 
  uint32_t keynr= param->real_keynr[idx];
3878
 
 
 
6175
  uint keynr= param->real_keynr[idx];
 
6176
  
3879
6177
  /* Handle cases when we don't have a valid non-empty list of range */
3880
 
  if (! tree)
 
6178
  if (!tree)
3881
6179
    return(HA_POS_ERROR);
3882
 
  if (tree->type == optimizer::SEL_ARG::IMPOSSIBLE)
 
6180
  if (tree->type == SEL_ARG::IMPOSSIBLE)
3883
6181
    return(0L);
3884
 
  if (tree->type != optimizer::SEL_ARG::KEY_RANGE || tree->part != 0)
 
6182
  if (tree->type != SEL_ARG::KEY_RANGE || tree->part != 0)
3885
6183
    return(HA_POS_ERROR);
3886
6184
 
3887
6185
  seq.keyno= idx;
3893
6191
  param->max_key_part=0;
3894
6192
 
3895
6193
  param->is_ror_scan= true;
3896
 
  if (param->table->index_flags(keynr) & HA_KEY_SCAN_NOT_ROR)
 
6194
  if (file->index_flags(keynr, 0, true) & HA_KEY_SCAN_NOT_ROR)
3897
6195
    param->is_ror_scan= false;
3898
 
 
 
6196
  
3899
6197
  *mrr_flags= param->force_default_mrr? HA_MRR_USE_DEFAULT_IMPL: 0;
3900
6198
  *mrr_flags|= HA_MRR_NO_ASSOCIATION;
3901
6199
 
3902
 
  bool pk_is_clustered= cursor->primary_key_is_clustered();
3903
 
  if (index_only &&
3904
 
      (param->table->index_flags(keynr) & HA_KEYREAD_ONLY) &&
3905
 
      !(pk_is_clustered && keynr == param->table->getShare()->getPrimaryKey()))
 
6200
  bool pk_is_clustered= file->primary_key_is_clustered();
 
6201
  if (index_only && 
 
6202
      (file->index_flags(keynr, param->max_key_part, 1) & HA_KEYREAD_ONLY) &&
 
6203
      !(pk_is_clustered && keynr == param->table->s->primary_key))
3906
6204
     *mrr_flags |= HA_MRR_INDEX_ONLY;
3907
 
 
3908
 
  if (session->lex->sql_command != SQLCOM_SELECT)
 
6205
  
 
6206
  if (current_thd->lex->sql_command != SQLCOM_SELECT)
3909
6207
    *mrr_flags |= HA_MRR_USE_DEFAULT_IMPL;
3910
6208
 
3911
 
  *bufsize= param->session->variables.read_rnd_buff_size;
3912
 
  rows= cursor->multi_range_read_info_const(keynr, &seq_if, (void*)&seq, 0,
 
6209
  *bufsize= param->thd->variables.read_rnd_buff_size;
 
6210
  rows= file->multi_range_read_info_const(keynr, &seq_if, (void*)&seq, 0,
3913
6211
                                          bufsize, mrr_flags, cost);
3914
6212
  if (rows != HA_POS_ERROR)
3915
6213
  {
3916
6214
    param->table->quick_rows[keynr]=rows;
3917
6215
    if (update_tbl_stats)
3918
6216
    {
3919
 
      param->table->quick_keys.set(keynr);
 
6217
      param->table->quick_keys.set_bit(keynr);
3920
6218
      param->table->quick_key_parts[keynr]=param->max_key_part+1;
3921
6219
      param->table->quick_n_ranges[keynr]= param->range_count;
3922
6220
      param->table->quick_condition_rows=
3927
6225
  enum ha_key_alg key_alg= param->table->key_info[seq.real_keyno].algorithm;
3928
6226
  if ((key_alg != HA_KEY_ALG_BTREE) && (key_alg!= HA_KEY_ALG_UNDEF))
3929
6227
  {
3930
 
    /*
 
6228
    /* 
3931
6229
      All scans are non-ROR scans for those index types.
3932
 
      TODO: Don't have this logic here, make table engines return
 
6230
      TODO: Don't have this logic here, make table engines return 
3933
6231
      appropriate flags instead.
3934
6232
    */
3935
6233
    param->is_ror_scan= false;
3937
6235
  else
3938
6236
  {
3939
6237
    /* Clustered PK scan is always a ROR scan (TODO: same as above) */
3940
 
    if (param->table->getShare()->getPrimaryKey() == keynr && pk_is_clustered)
 
6238
    if (param->table->s->primary_key == keynr && pk_is_clustered)
3941
6239
      param->is_ror_scan= true;
3942
6240
  }
3943
6241
 
3968
6266
 
3969
6267
    where the index is defined on (key1_1, ..., key1_N [,a_1, ..., a_n])
3970
6268
 
3971
 
    and the table has a clustered Primary Key defined as
3972
 
      PRIMARY KEY(a_1, ..., a_n, b1, ..., b_k)
3973
 
 
3974
 
    i.e. the first key parts of it are identical to uncovered parts ot the
 
6269
    and the table has a clustered Primary Key defined as 
 
6270
      PRIMARY KEY(a_1, ..., a_n, b1, ..., b_k) 
 
6271
    
 
6272
    i.e. the first key parts of it are identical to uncovered parts ot the 
3975
6273
    key being scanned. This function assumes that the index flags do not
3976
6274
    include HA_KEY_SCAN_NOT_ROR flag (that is checked elsewhere).
3977
6275
 
3982
6280
    false  Otherwise
3983
6281
*/
3984
6282
 
3985
 
static bool is_key_scan_ror(optimizer::Parameter *param, uint32_t keynr, uint8_t nparts)
 
6283
static bool is_key_scan_ror(PARAM *param, uint keynr, uint8_t nparts)
3986
6284
{
3987
 
  KeyInfo *table_key= param->table->key_info + keynr;
3988
 
  KeyPartInfo *key_part= table_key->key_part + nparts;
3989
 
  KeyPartInfo *key_part_end= (table_key->key_part +
 
6285
  KEY *table_key= param->table->key_info + keynr;
 
6286
  KEY_PART_INFO *key_part= table_key->key_part + nparts;
 
6287
  KEY_PART_INFO *key_part_end= (table_key->key_part +
3990
6288
                                table_key->key_parts);
3991
 
  uint32_t pk_number;
3992
 
 
3993
 
  for (KeyPartInfo *kp= table_key->key_part; kp < key_part; kp++)
 
6289
  uint pk_number;
 
6290
  
 
6291
  for (KEY_PART_INFO *kp= table_key->key_part; kp < key_part; kp++)
3994
6292
  {
3995
6293
    uint16_t fieldnr= param->table->key_info[keynr].
3996
6294
                    key_part[kp - table_key->key_part].fieldnr - 1;
3997
 
    if (param->table->getField(fieldnr)->key_length() != kp->length)
 
6295
    if (param->table->field[fieldnr]->key_length() != kp->length)
3998
6296
      return false;
3999
6297
  }
4000
6298
 
4002
6300
    return true;
4003
6301
 
4004
6302
  key_part= table_key->key_part + nparts;
4005
 
  pk_number= param->table->getShare()->getPrimaryKey();
4006
 
  if (!param->table->cursor->primary_key_is_clustered() || pk_number == MAX_KEY)
 
6303
  pk_number= param->table->s->primary_key;
 
6304
  if (!param->table->file->primary_key_is_clustered() || pk_number == MAX_KEY)
4007
6305
    return false;
4008
6306
 
4009
 
  KeyPartInfo *pk_part= param->table->key_info[pk_number].key_part;
4010
 
  KeyPartInfo *pk_part_end= pk_part +
 
6307
  KEY_PART_INFO *pk_part= param->table->key_info[pk_number].key_part;
 
6308
  KEY_PART_INFO *pk_part_end= pk_part +
4011
6309
                              param->table->key_info[pk_number].key_parts;
4012
6310
  for (;(key_part!=key_part_end) && (pk_part != pk_part_end);
4013
6311
       ++key_part, ++pk_part)
4020
6318
}
4021
6319
 
4022
6320
 
4023
 
optimizer::QuickRangeSelect *
4024
 
optimizer::get_quick_select(Parameter *param,
4025
 
                            uint32_t idx,
4026
 
                            optimizer::SEL_ARG *key_tree,
4027
 
                            uint32_t mrr_flags,
4028
 
                            uint32_t mrr_buf_size,
4029
 
                            memory::Root *parent_alloc)
 
6321
/*
 
6322
  Create a QUICK_RANGE_SELECT from given key and SEL_ARG tree for that key.
 
6323
 
 
6324
  SYNOPSIS
 
6325
    get_quick_select()
 
6326
      param
 
6327
      idx            Index of used key in param->key.
 
6328
      key_tree       SEL_ARG tree for the used key
 
6329
      mrr_flags      MRR parameter for quick select
 
6330
      mrr_buf_size   MRR parameter for quick select
 
6331
      parent_alloc   If not NULL, use it to allocate memory for
 
6332
                     quick select data. Otherwise use quick->alloc.
 
6333
  NOTES
 
6334
    The caller must call QUICK_SELECT::init for returned quick select.
 
6335
 
 
6336
    CAUTION! This function may change thd->mem_root to a MEM_ROOT which will be
 
6337
    deallocated when the returned quick select is deleted.
 
6338
 
 
6339
  RETURN
 
6340
    NULL on error
 
6341
    otherwise created quick select
 
6342
*/
 
6343
 
 
6344
QUICK_RANGE_SELECT *
 
6345
get_quick_select(PARAM *param,uint idx,SEL_ARG *key_tree, uint mrr_flags,
 
6346
                 uint mrr_buf_size, MEM_ROOT *parent_alloc)
4030
6347
{
4031
 
  optimizer::QuickRangeSelect *quick= NULL;
 
6348
  QUICK_RANGE_SELECT *quick;
4032
6349
  bool create_err= false;
4033
6350
 
4034
 
  quick= new optimizer::QuickRangeSelect(param->session,
4035
 
                                         param->table,
4036
 
                                         param->real_keynr[idx],
4037
 
                                         test(parent_alloc),
4038
 
                                         NULL,
4039
 
                                         &create_err);
 
6351
  quick=new QUICK_RANGE_SELECT(param->thd, param->table,
 
6352
                               param->real_keynr[idx],
 
6353
                               test(parent_alloc), NULL, &create_err);
4040
6354
 
4041
6355
  if (quick)
4042
6356
  {
4043
6357
    if (create_err ||
4044
 
              get_quick_keys(param,
4045
 
                       quick,
4046
 
                       param->key[idx],
4047
 
                       key_tree,
4048
 
                       param->min_key,
4049
 
                       0,
4050
 
                                   param->max_key,
4051
 
                       0))
 
6358
        get_quick_keys(param,quick,param->key[idx],key_tree,param->min_key,0,
 
6359
                       param->max_key,0))
4052
6360
    {
4053
6361
      delete quick;
4054
 
      quick= NULL;
 
6362
      quick=0;
4055
6363
    }
4056
6364
    else
4057
6365
    {
4058
6366
      quick->mrr_flags= mrr_flags;
4059
6367
      quick->mrr_buf_size= mrr_buf_size;
4060
 
      if (parent_alloc)
4061
 
      {
4062
 
        quick->key_parts=(KEY_PART*)
4063
 
          parent_alloc->memdup_root( (char*) param->key[idx], sizeof(KEY_PART)* param->table->key_info[param->real_keynr[idx]].key_parts);
4064
 
      }
4065
 
      else
4066
 
      {
4067
 
        quick->key_parts=(KEY_PART*)
4068
 
          quick->alloc.memdup_root((char*) param->key[idx], sizeof(KEY_PART)* param->table->key_info[param->real_keynr[idx]].key_parts);
4069
 
      }
 
6368
      quick->key_parts=(KEY_PART*)
 
6369
        memdup_root(parent_alloc? parent_alloc : &quick->alloc,
 
6370
                    (char*) param->key[idx],
 
6371
                    sizeof(KEY_PART)*
 
6372
                    param->table->key_info[param->real_keynr[idx]].key_parts);
4070
6373
    }
4071
6374
  }
4072
 
  return quick;
 
6375
  return(quick);
4073
6376
}
4074
6377
 
4075
6378
 
4077
6380
** Fix this to get all possible sub_ranges
4078
6381
*/
4079
6382
bool
4080
 
optimizer::get_quick_keys(optimizer::Parameter *param,
4081
 
                          optimizer::QuickRangeSelect *quick,
4082
 
                          KEY_PART *key,
4083
 
                                optimizer::SEL_ARG *key_tree,
4084
 
                          unsigned char *min_key,
4085
 
                          uint32_t min_key_flag,
4086
 
                                unsigned char *max_key,
4087
 
                          uint32_t max_key_flag)
 
6383
get_quick_keys(PARAM *param,QUICK_RANGE_SELECT *quick,KEY_PART *key,
 
6384
               SEL_ARG *key_tree, uchar *min_key,uint min_key_flag,
 
6385
               uchar *max_key, uint max_key_flag)
4088
6386
{
4089
 
  optimizer::QuickRange *range= NULL;
4090
 
  uint32_t flag;
4091
 
  int min_part= key_tree->part - 1; // # of keypart values in min_key buffer
4092
 
  int max_part= key_tree->part - 1; // # of keypart values in max_key buffer
 
6387
  QUICK_RANGE *range;
 
6388
  uint flag;
 
6389
  int min_part= key_tree->part-1, // # of keypart values in min_key buffer
 
6390
      max_part= key_tree->part-1; // # of keypart values in max_key buffer
4093
6391
 
4094
 
  if (key_tree->left != &optimizer::null_element)
 
6392
  if (key_tree->left != &null_element)
4095
6393
  {
4096
 
    if (get_quick_keys(param,
4097
 
                       quick,
4098
 
                       key,
4099
 
                       key_tree->left,
4100
 
                                   min_key,
4101
 
                       min_key_flag,
4102
 
                       max_key,
4103
 
                       max_key_flag))
4104
 
    {
 
6394
    if (get_quick_keys(param,quick,key,key_tree->left,
 
6395
                       min_key,min_key_flag, max_key, max_key_flag))
4105
6396
      return 1;
4106
 
    }
4107
6397
  }
4108
 
  unsigned char *tmp_min_key= min_key,*tmp_max_key= max_key;
 
6398
  uchar *tmp_min_key=min_key,*tmp_max_key=max_key;
4109
6399
  min_part+= key_tree->store_min(key[key_tree->part].store_length,
4110
6400
                                 &tmp_min_key,min_key_flag);
4111
6401
  max_part+= key_tree->store_max(key[key_tree->part].store_length,
4113
6403
 
4114
6404
  if (key_tree->next_key_part &&
4115
6405
      key_tree->next_key_part->part == key_tree->part+1 &&
4116
 
      key_tree->next_key_part->type == optimizer::SEL_ARG::KEY_RANGE)
 
6406
      key_tree->next_key_part->type == SEL_ARG::KEY_RANGE)
4117
6407
  {                                               // const key as prefix
4118
6408
    if ((tmp_min_key - min_key) == (tmp_max_key - max_key) &&
4119
 
        memcmp(min_key, max_key, (uint32_t)(tmp_max_key - max_key))==0 &&
4120
 
        key_tree->min_flag==0 && key_tree->max_flag==0)
 
6409
         memcmp(min_key, max_key, (uint)(tmp_max_key - max_key))==0 &&
 
6410
         key_tree->min_flag==0 && key_tree->max_flag==0)
4121
6411
    {
4122
 
      if (get_quick_keys(param,
4123
 
                         quick,
4124
 
                         key,
4125
 
                         key_tree->next_key_part,
4126
 
                         tmp_min_key,
4127
 
                         min_key_flag | key_tree->min_flag,
4128
 
                         tmp_max_key,
4129
 
                         max_key_flag | key_tree->max_flag))
4130
 
      {
4131
 
        return 1;
4132
 
      }
 
6412
      if (get_quick_keys(param,quick,key,key_tree->next_key_part,
 
6413
                         tmp_min_key, min_key_flag | key_tree->min_flag,
 
6414
                         tmp_max_key, max_key_flag | key_tree->max_flag))
 
6415
        return 1;
4133
6416
      goto end;                                 // Ugly, but efficient
4134
6417
    }
4135
6418
    {
4136
 
      uint32_t tmp_min_flag=key_tree->min_flag,tmp_max_flag=key_tree->max_flag;
4137
 
      if (! tmp_min_flag)
4138
 
      {
4139
 
        min_part+= key_tree->next_key_part->store_min_key(key,
4140
 
                                                          &tmp_min_key,
 
6419
      uint tmp_min_flag=key_tree->min_flag,tmp_max_flag=key_tree->max_flag;
 
6420
      if (!tmp_min_flag)
 
6421
        min_part+= key_tree->next_key_part->store_min_key(key, &tmp_min_key,
4141
6422
                                                          &tmp_min_flag);
4142
 
      }
4143
 
      if (! tmp_max_flag)
4144
 
      {
4145
 
        max_part+= key_tree->next_key_part->store_max_key(key,
4146
 
                                                          &tmp_max_key,
 
6423
      if (!tmp_max_flag)
 
6424
        max_part+= key_tree->next_key_part->store_max_key(key, &tmp_max_key,
4147
6425
                                                          &tmp_max_flag);
4148
 
      }
4149
6426
      flag=tmp_min_flag | tmp_max_flag;
4150
6427
    }
4151
6428
  }
4158
6435
    Ensure that some part of min_key and max_key are used.  If not,
4159
6436
    regard this as no lower/upper range
4160
6437
  */
4161
 
  if (tmp_min_key != param->min_key)
4162
 
  {
4163
 
    flag&= ~NO_MIN_RANGE;
4164
 
  }
4165
 
  else
4166
 
  {
4167
 
    flag|= NO_MIN_RANGE;
4168
 
  }
4169
 
  if (tmp_max_key != param->max_key)
4170
 
  {
4171
 
    flag&= ~NO_MAX_RANGE;
4172
 
  }
4173
 
  else
4174
 
  {
4175
 
    flag|= NO_MAX_RANGE;
 
6438
  {
 
6439
    if (tmp_min_key != param->min_key)
 
6440
      flag&= ~NO_MIN_RANGE;
 
6441
    else
 
6442
      flag|= NO_MIN_RANGE;
 
6443
    if (tmp_max_key != param->max_key)
 
6444
      flag&= ~NO_MAX_RANGE;
 
6445
    else
 
6446
      flag|= NO_MAX_RANGE;
4176
6447
  }
4177
6448
  if (flag == 0)
4178
6449
  {
4179
 
    uint32_t length= (uint32_t) (tmp_min_key - param->min_key);
4180
 
    if (length == (uint32_t) (tmp_max_key - param->max_key) &&
4181
 
              ! memcmp(param->min_key,param->max_key,length))
 
6450
    uint length= (uint) (tmp_min_key - param->min_key);
 
6451
    if (length == (uint) (tmp_max_key - param->max_key) &&
 
6452
        !memcmp(param->min_key,param->max_key,length))
4182
6453
    {
4183
 
      KeyInfo *table_key= quick->head->key_info+quick->index;
4184
 
      flag= EQ_RANGE;
 
6454
      KEY *table_key=quick->head->key_info+quick->index;
 
6455
      flag=EQ_RANGE;
4185
6456
      if ((table_key->flags & (HA_NOSAME)) == HA_NOSAME &&
4186
 
                key->part == table_key->key_parts-1)
 
6457
          key->part == table_key->key_parts-1)
4187
6458
      {
4188
 
        if (! (table_key->flags & HA_NULL_PART_KEY) ||
4189
 
            ! null_part_in_key(key,
4190
 
                               param->min_key,
4191
 
                               (uint32_t) (tmp_min_key - param->min_key)))
4192
 
        {
4193
 
          flag|= UNIQUE_RANGE;
4194
 
        }
4195
 
        else
4196
 
        {
4197
 
          flag|= NULL_RANGE;
4198
 
        }
 
6459
        if (!(table_key->flags & HA_NULL_PART_KEY) ||
 
6460
            !null_part_in_key(key,
 
6461
                              param->min_key,
 
6462
                              (uint) (tmp_min_key - param->min_key)))
 
6463
          flag|= UNIQUE_RANGE;
 
6464
        else
 
6465
          flag|= NULL_RANGE;
4199
6466
      }
4200
6467
    }
4201
6468
  }
4202
6469
 
4203
6470
  /* Get range for retrieving rows in QUICK_SELECT::get_next */
4204
 
  if (! (range= new optimizer::QuickRange(param->min_key,
4205
 
                                                             (uint32_t) (tmp_min_key - param->min_key),
4206
 
                                           min_part >=0 ? make_keypart_map(min_part) : 0,
4207
 
                                                             param->max_key,
4208
 
                                                             (uint32_t) (tmp_max_key - param->max_key),
4209
 
                                           max_part >=0 ? make_keypart_map(max_part) : 0,
4210
 
                                                             flag)))
4211
 
  {
 
6471
  if (!(range= new QUICK_RANGE(param->min_key,
 
6472
                               (uint) (tmp_min_key - param->min_key),
 
6473
                               min_part >=0 ? make_keypart_map(min_part) : 0,
 
6474
                               param->max_key,
 
6475
                               (uint) (tmp_max_key - param->max_key),
 
6476
                               max_part >=0 ? make_keypart_map(max_part) : 0,
 
6477
                               flag)))
4212
6478
    return 1;                   // out of memory
4213
 
  }
4214
6479
 
4215
 
  set_if_bigger(quick->max_used_key_length, (uint32_t)range->min_length);
4216
 
  set_if_bigger(quick->max_used_key_length, (uint32_t)range->max_length);
4217
 
  set_if_bigger(quick->used_key_parts, (uint32_t) key_tree->part+1);
4218
 
  if (insert_dynamic(&quick->ranges, (unsigned char*) &range))
4219
 
  {
 
6480
  set_if_bigger(quick->max_used_key_length, range->min_length);
 
6481
  set_if_bigger(quick->max_used_key_length, range->max_length);
 
6482
  set_if_bigger(quick->used_key_parts, (uint) key_tree->part+1);
 
6483
  if (insert_dynamic(&quick->ranges, (uchar*) &range))
4220
6484
    return 1;
4221
 
  }
4222
6485
 
4223
6486
 end:
4224
 
  if (key_tree->right != &optimizer::null_element)
 
6487
  if (key_tree->right != &null_element)
 
6488
    return get_quick_keys(param,quick,key,key_tree->right,
 
6489
                          min_key,min_key_flag,
 
6490
                          max_key,max_key_flag);
 
6491
  return 0;
 
6492
}
 
6493
 
 
6494
/*
 
6495
  Return 1 if there is only one range and this uses the whole primary key
 
6496
*/
 
6497
 
 
6498
bool QUICK_RANGE_SELECT::unique_key_range()
 
6499
{
 
6500
  if (ranges.elements == 1)
4225
6501
  {
4226
 
    return get_quick_keys(param,
4227
 
                          quick,
4228
 
                          key,
4229
 
                          key_tree->right,
4230
 
                                            min_key,
4231
 
                          min_key_flag,
4232
 
                                            max_key,
4233
 
                          max_key_flag);
 
6502
    QUICK_RANGE *tmp= *((QUICK_RANGE**)ranges.buffer);
 
6503
    if ((tmp->flag & (EQ_RANGE | NULL_RANGE)) == EQ_RANGE)
 
6504
    {
 
6505
      KEY *key=head->key_info+index;
 
6506
      return ((key->flags & (HA_NOSAME)) == HA_NOSAME &&
 
6507
              key->key_length == tmp->min_length);
 
6508
    }
4234
6509
  }
4235
6510
  return 0;
4236
6511
}
4237
6512
 
 
6513
 
 
6514
 
4238
6515
/*
4239
6516
  Return true if any part of the key is NULL
4240
6517
 
4241
6518
  SYNOPSIS
4242
 
    null_part_in_key()
 
6519
    null_part_in_key()    
4243
6520
      key_part  Array of key parts (index description)
4244
6521
      key       Key values tuple
4245
6522
      length    Length of key values tuple in bytes.
4249
6526
    false  Otherwise
4250
6527
*/
4251
6528
 
4252
 
static bool null_part_in_key(KEY_PART *key_part, const unsigned char *key, uint32_t length)
 
6529
static bool null_part_in_key(KEY_PART *key_part, const uchar *key, uint length)
4253
6530
{
4254
 
  for (const unsigned char *end=key+length ;
 
6531
  for (const uchar *end=key+length ;
4255
6532
       key < end;
4256
6533
       key+= key_part++->store_length)
4257
6534
  {
4262
6539
}
4263
6540
 
4264
6541
 
4265
 
bool optimizer::QuickSelectInterface::is_keys_used(const MyBitmap *fields)
 
6542
bool QUICK_SELECT_I::is_keys_used(const MY_BITMAP *fields)
4266
6543
{
4267
6544
  return is_key_used(head, index, fields);
4268
6545
}
4269
6546
 
 
6547
bool QUICK_INDEX_MERGE_SELECT::is_keys_used(const MY_BITMAP *fields)
 
6548
{
 
6549
  QUICK_RANGE_SELECT *quick;
 
6550
  List_iterator_fast<QUICK_RANGE_SELECT> it(quick_selects);
 
6551
  while ((quick= it++))
 
6552
  {
 
6553
    if (is_key_used(head, quick->index, fields))
 
6554
      return 1;
 
6555
  }
 
6556
  return 0;
 
6557
}
 
6558
 
 
6559
bool QUICK_ROR_INTERSECT_SELECT::is_keys_used(const MY_BITMAP *fields)
 
6560
{
 
6561
  QUICK_RANGE_SELECT *quick;
 
6562
  List_iterator_fast<QUICK_RANGE_SELECT> it(quick_selects);
 
6563
  while ((quick= it++))
 
6564
  {
 
6565
    if (is_key_used(head, quick->index, fields))
 
6566
      return 1;
 
6567
  }
 
6568
  return 0;
 
6569
}
 
6570
 
 
6571
bool QUICK_ROR_UNION_SELECT::is_keys_used(const MY_BITMAP *fields)
 
6572
{
 
6573
  QUICK_SELECT_I *quick;
 
6574
  List_iterator_fast<QUICK_SELECT_I> it(quick_selects);
 
6575
  while ((quick= it++))
 
6576
  {
 
6577
    if (quick->is_keys_used(fields))
 
6578
      return 1;
 
6579
  }
 
6580
  return 0;
 
6581
}
 
6582
 
4270
6583
 
4271
6584
/*
4272
6585
  Create quick select from ref/ref_or_null scan.
4273
6586
 
4274
6587
  SYNOPSIS
4275
6588
    get_quick_select_for_ref()
4276
 
      session      Thread handle
 
6589
      thd      Thread handle
4277
6590
      table    Table to access
4278
6591
      ref      ref[_or_null] scan parameters
4279
6592
      records  Estimate of number of records (needed only to construct
4287
6600
    NULL on error.
4288
6601
*/
4289
6602
 
4290
 
optimizer::QuickRangeSelect *optimizer::get_quick_select_for_ref(Session *session,
4291
 
                                                                 Table *table,
4292
 
                                                                 table_reference_st *ref,
4293
 
                                                                 ha_rows records)
 
6603
QUICK_RANGE_SELECT *get_quick_select_for_ref(THD *thd, TABLE *table,
 
6604
                                             TABLE_REF *ref, ha_rows records)
4294
6605
{
4295
 
  memory::Root *old_root, *alloc;
4296
 
  optimizer::QuickRangeSelect *quick= NULL;
4297
 
  KeyInfo *key_info = &table->key_info[ref->key];
 
6606
  MEM_ROOT *old_root, *alloc;
 
6607
  QUICK_RANGE_SELECT *quick;
 
6608
  KEY *key_info = &table->key_info[ref->key];
4298
6609
  KEY_PART *key_part;
4299
 
  optimizer::QuickRange *range= NULL;
4300
 
  uint32_t part;
 
6610
  QUICK_RANGE *range;
 
6611
  uint part;
4301
6612
  bool create_err= false;
4302
 
  optimizer::CostVector cost;
 
6613
  COST_VECT cost;
4303
6614
 
4304
 
  old_root= session->mem_root;
4305
 
  /* The following call may change session->mem_root */
4306
 
  quick= new optimizer::QuickRangeSelect(session, table, ref->key, 0, 0, &create_err);
4307
 
  /* save mem_root set by QuickRangeSelect constructor */
4308
 
  alloc= session->mem_root;
 
6615
  old_root= thd->mem_root;
 
6616
  /* The following call may change thd->mem_root */
 
6617
  quick= new QUICK_RANGE_SELECT(thd, table, ref->key, 0, 0, &create_err);
 
6618
  /* save mem_root set by QUICK_RANGE_SELECT constructor */
 
6619
  alloc= thd->mem_root;
4309
6620
  /*
4310
 
    return back default mem_root (session->mem_root) changed by
4311
 
    QuickRangeSelect constructor
 
6621
    return back default mem_root (thd->mem_root) changed by
 
6622
    QUICK_RANGE_SELECT constructor
4312
6623
  */
4313
 
  session->mem_root= old_root;
 
6624
  thd->mem_root= old_root;
4314
6625
 
4315
6626
  if (!quick || create_err)
4316
6627
    return 0;                   /* no ranges found */
4318
6629
    goto err;
4319
6630
  quick->records= records;
4320
6631
 
4321
 
  if ((cp_buffer_from_ref(session, ref) && session->is_fatal_error) ||
4322
 
      !(range= new(alloc) optimizer::QuickRange()))
 
6632
  if ((cp_buffer_from_ref(thd, table, ref) && thd->is_fatal_error) ||
 
6633
      !(range= new(alloc) QUICK_RANGE()))
4323
6634
    goto err;                                   // out of memory
4324
6635
 
4325
6636
  range->min_key= range->max_key= ref->key_buff;
4327
6638
  range->min_keypart_map= range->max_keypart_map=
4328
6639
    make_prev_keypart_map(ref->key_parts);
4329
6640
  range->flag= ((ref->key_length == key_info->key_length &&
4330
 
                 (key_info->flags & HA_END_SPACE_KEY) == 0) ? EQ_RANGE : 0);
4331
 
 
 
6641
                 key_info->flags == 0) ? EQ_RANGE : 0);
4332
6642
 
4333
6643
  if (!(quick->key_parts=key_part=(KEY_PART *)
4334
 
        quick->alloc.alloc_root(sizeof(KEY_PART)*ref->key_parts)))
 
6644
        alloc_root(&quick->alloc,sizeof(KEY_PART)*ref->key_parts)))
4335
6645
    goto err;
4336
6646
 
4337
6647
  for (part=0 ; part < ref->key_parts ;part++,key_part++)
4343
6653
    key_part->null_bit=     key_info->key_part[part].null_bit;
4344
6654
    key_part->flag=         (uint8_t) key_info->key_part[part].key_part_flag;
4345
6655
  }
4346
 
  if (insert_dynamic(&quick->ranges,(unsigned char*)&range))
 
6656
  if (insert_dynamic(&quick->ranges,(uchar*)&range))
4347
6657
    goto err;
4348
6658
 
4349
6659
  /*
4354
6664
  */
4355
6665
  if (ref->null_ref_key)
4356
6666
  {
4357
 
    optimizer::QuickRange *null_range= NULL;
 
6667
    QUICK_RANGE *null_range;
4358
6668
 
4359
6669
    *ref->null_ref_key= 1;              // Set null byte then create a range
4360
6670
    if (!(null_range= new (alloc)
4361
 
          optimizer::QuickRange(ref->key_buff, ref->key_length,
4362
 
                                 make_prev_keypart_map(ref->key_parts),
4363
 
                                 ref->key_buff, ref->key_length,
4364
 
                                 make_prev_keypart_map(ref->key_parts), EQ_RANGE)))
 
6671
          QUICK_RANGE(ref->key_buff, ref->key_length,
 
6672
                      make_prev_keypart_map(ref->key_parts),
 
6673
                      ref->key_buff, ref->key_length,
 
6674
                      make_prev_keypart_map(ref->key_parts), EQ_RANGE)))
4365
6675
      goto err;
4366
6676
    *ref->null_ref_key= 0;              // Clear null byte
4367
 
    if (insert_dynamic(&quick->ranges,(unsigned char*)&null_range))
 
6677
    if (insert_dynamic(&quick->ranges,(uchar*)&null_range))
4368
6678
      goto err;
4369
6679
  }
4370
6680
 
4371
6681
  /* Call multi_range_read_info() to get the MRR flags and buffer size */
4372
 
  quick->mrr_flags= HA_MRR_NO_ASSOCIATION |
 
6682
  quick->mrr_flags= HA_MRR_NO_ASSOCIATION | 
4373
6683
                    (table->key_read ? HA_MRR_INDEX_ONLY : 0);
4374
 
  if (session->lex->sql_command != SQLCOM_SELECT)
 
6684
  if (thd->lex->sql_command != SQLCOM_SELECT)
4375
6685
    quick->mrr_flags |= HA_MRR_USE_DEFAULT_IMPL;
4376
6686
 
4377
 
  quick->mrr_buf_size= session->variables.read_rnd_buff_size;
4378
 
  if (table->cursor->multi_range_read_info(quick->index, 1, (uint32_t)records,
4379
 
                                           &quick->mrr_buf_size,
4380
 
                                           &quick->mrr_flags, &cost))
 
6687
  quick->mrr_buf_size= thd->variables.read_rnd_buff_size;
 
6688
  if (table->file->multi_range_read_info(quick->index, 1, (uint)records,
 
6689
                                         &quick->mrr_buf_size,
 
6690
                                         &quick->mrr_flags, &cost))
4381
6691
    goto err;
4382
6692
 
4383
6693
  return quick;
4388
6698
 
4389
6699
 
4390
6700
/*
4391
 
  Range sequence interface implementation for array<QuickRange>: initialize
4392
 
 
 
6701
  Perform key scans for all used indexes (except CPK), get rowids and merge 
 
6702
  them into an ordered non-recurrent sequence of rowids.
 
6703
  
 
6704
  The merge/duplicate removal is performed using Unique class. We put all
 
6705
  rowids into Unique, get the sorted sequence and destroy the Unique.
 
6706
  
 
6707
  If table has a clustered primary key that covers all rows (true for bdb
 
6708
  and innodb currently) and one of the index_merge scans is a scan on PK,
 
6709
  then rows that will be retrieved by PK scan are not put into Unique and 
 
6710
  primary key scan is not performed here, it is performed later separately.
 
6711
 
 
6712
  RETURN
 
6713
    0     OK
 
6714
    other error
 
6715
*/
 
6716
 
 
6717
int QUICK_INDEX_MERGE_SELECT::read_keys_and_merge()
 
6718
{
 
6719
  List_iterator_fast<QUICK_RANGE_SELECT> cur_quick_it(quick_selects);
 
6720
  QUICK_RANGE_SELECT* cur_quick;
 
6721
  int result;
 
6722
  Unique *unique;
 
6723
  handler *file= head->file;
 
6724
 
 
6725
  file->extra(HA_EXTRA_KEYREAD);
 
6726
  head->prepare_for_position();
 
6727
 
 
6728
  cur_quick_it.rewind();
 
6729
  cur_quick= cur_quick_it++;
 
6730
  assert(cur_quick != 0);
 
6731
  
 
6732
  /*
 
6733
    We reuse the same instance of handler so we need to call both init and 
 
6734
    reset here.
 
6735
  */
 
6736
  if (cur_quick->init() || cur_quick->reset())
 
6737
    return(1);
 
6738
 
 
6739
  unique= new Unique(refpos_order_cmp, (void *)file,
 
6740
                     file->ref_length,
 
6741
                     thd->variables.sortbuff_size);
 
6742
  if (!unique)
 
6743
    return(1);
 
6744
  for (;;)
 
6745
  {
 
6746
    while ((result= cur_quick->get_next()) == HA_ERR_END_OF_FILE)
 
6747
    {
 
6748
      cur_quick->range_end();
 
6749
      cur_quick= cur_quick_it++;
 
6750
      if (!cur_quick)
 
6751
        break;
 
6752
 
 
6753
      if (cur_quick->file->inited != handler::NONE) 
 
6754
        cur_quick->file->ha_index_end();
 
6755
      if (cur_quick->init() || cur_quick->reset())
 
6756
        return(1);
 
6757
    }
 
6758
 
 
6759
    if (result)
 
6760
    {
 
6761
      if (result != HA_ERR_END_OF_FILE)
 
6762
      {
 
6763
        cur_quick->range_end();
 
6764
        return(result);
 
6765
      }
 
6766
      break;
 
6767
    }
 
6768
 
 
6769
    if (thd->killed)
 
6770
      return(1);
 
6771
 
 
6772
    /* skip row if it will be retrieved by clustered PK scan */
 
6773
    if (pk_quick_select && pk_quick_select->row_in_ranges())
 
6774
      continue;
 
6775
 
 
6776
    cur_quick->file->position(cur_quick->record);
 
6777
    result= unique->unique_add((char*)cur_quick->file->ref);
 
6778
    if (result)
 
6779
      return(1);
 
6780
 
 
6781
  }
 
6782
 
 
6783
  /* ok, all row ids are in Unique */
 
6784
  result= unique->get(head);
 
6785
  delete unique;
 
6786
  doing_pk_scan= false;
 
6787
  /* index_merge currently doesn't support "using index" at all */
 
6788
  file->extra(HA_EXTRA_NO_KEYREAD);
 
6789
  /* start table scan */
 
6790
  init_read_record(&read_record, thd, head, (SQL_SELECT*) 0, 1, 1);
 
6791
  return(result);
 
6792
}
 
6793
 
 
6794
 
 
6795
/*
 
6796
  Get next row for index_merge.
 
6797
  NOTES
 
6798
    The rows are read from
 
6799
      1. rowids stored in Unique.
 
6800
      2. QUICK_RANGE_SELECT with clustered primary key (if any).
 
6801
    The sets of rows retrieved in 1) and 2) are guaranteed to be disjoint.
 
6802
*/
 
6803
 
 
6804
int QUICK_INDEX_MERGE_SELECT::get_next()
 
6805
{
 
6806
  int result;
 
6807
 
 
6808
  if (doing_pk_scan)
 
6809
    return(pk_quick_select->get_next());
 
6810
 
 
6811
  if ((result= read_record.read_record(&read_record)) == -1)
 
6812
  {
 
6813
    result= HA_ERR_END_OF_FILE;
 
6814
    end_read_record(&read_record);
 
6815
    /* All rows from Unique have been retrieved, do a clustered PK scan */
 
6816
    if (pk_quick_select)
 
6817
    {
 
6818
      doing_pk_scan= true;
 
6819
      if ((result= pk_quick_select->init()) ||
 
6820
          (result= pk_quick_select->reset()))
 
6821
        return(result);
 
6822
      return(pk_quick_select->get_next());
 
6823
    }
 
6824
  }
 
6825
 
 
6826
  return(result);
 
6827
}
 
6828
 
 
6829
 
 
6830
/*
 
6831
  Retrieve next record.
 
6832
  SYNOPSIS
 
6833
     QUICK_ROR_INTERSECT_SELECT::get_next()
 
6834
 
 
6835
  NOTES
 
6836
    Invariant on enter/exit: all intersected selects have retrieved all index
 
6837
    records with rowid <= some_rowid_val and no intersected select has
 
6838
    retrieved any index records with rowid > some_rowid_val.
 
6839
    We start fresh and loop until we have retrieved the same rowid in each of
 
6840
    the key scans or we got an error.
 
6841
 
 
6842
    If a Clustered PK scan is present, it is used only to check if row
 
6843
    satisfies its condition (and never used for row retrieval).
 
6844
 
 
6845
  RETURN
 
6846
   0     - Ok
 
6847
   other - Error code if any error occurred.
 
6848
*/
 
6849
 
 
6850
int QUICK_ROR_INTERSECT_SELECT::get_next()
 
6851
{
 
6852
  List_iterator_fast<QUICK_RANGE_SELECT> quick_it(quick_selects);
 
6853
  QUICK_RANGE_SELECT* quick;
 
6854
  int error, cmp;
 
6855
  uint last_rowid_count=0;
 
6856
 
 
6857
  do
 
6858
  {
 
6859
    /* Get a rowid for first quick and save it as a 'candidate' */
 
6860
    quick= quick_it++;
 
6861
    error= quick->get_next();
 
6862
    if (cpk_quick)
 
6863
    {
 
6864
      while (!error && !cpk_quick->row_in_ranges())
 
6865
        error= quick->get_next();
 
6866
    }
 
6867
    if (error)
 
6868
      return(error);
 
6869
 
 
6870
    quick->file->position(quick->record);
 
6871
    memcpy(last_rowid, quick->file->ref, head->file->ref_length);
 
6872
    last_rowid_count= 1;
 
6873
 
 
6874
    while (last_rowid_count < quick_selects.elements)
 
6875
    {
 
6876
      if (!(quick= quick_it++))
 
6877
      {
 
6878
        quick_it.rewind();
 
6879
        quick= quick_it++;
 
6880
      }
 
6881
 
 
6882
      do
 
6883
      {
 
6884
        if ((error= quick->get_next()))
 
6885
          return(error);
 
6886
        quick->file->position(quick->record);
 
6887
        cmp= head->file->cmp_ref(quick->file->ref, last_rowid);
 
6888
      } while (cmp < 0);
 
6889
 
 
6890
      /* Ok, current select 'caught up' and returned ref >= cur_ref */
 
6891
      if (cmp > 0)
 
6892
      {
 
6893
        /* Found a row with ref > cur_ref. Make it a new 'candidate' */
 
6894
        if (cpk_quick)
 
6895
        {
 
6896
          while (!cpk_quick->row_in_ranges())
 
6897
          {
 
6898
            if ((error= quick->get_next()))
 
6899
              return(error);
 
6900
          }
 
6901
        }
 
6902
        memcpy(last_rowid, quick->file->ref, head->file->ref_length);
 
6903
        last_rowid_count= 1;
 
6904
      }
 
6905
      else
 
6906
      {
 
6907
        /* current 'candidate' row confirmed by this select */
 
6908
        last_rowid_count++;
 
6909
      }
 
6910
    }
 
6911
 
 
6912
    /* We get here if we got the same row ref in all scans. */
 
6913
    if (need_to_fetch_row)
 
6914
      error= head->file->rnd_pos(head->record[0], last_rowid);
 
6915
  } while (error == HA_ERR_RECORD_DELETED);
 
6916
  return(error);
 
6917
}
 
6918
 
 
6919
 
 
6920
/*
 
6921
  Retrieve next record.
 
6922
  SYNOPSIS
 
6923
    QUICK_ROR_UNION_SELECT::get_next()
 
6924
 
 
6925
  NOTES
 
6926
    Enter/exit invariant:
 
6927
    For each quick select in the queue a {key,rowid} tuple has been
 
6928
    retrieved but the corresponding row hasn't been passed to output.
 
6929
 
 
6930
  RETURN
 
6931
   0     - Ok
 
6932
   other - Error code if any error occurred.
 
6933
*/
 
6934
 
 
6935
int QUICK_ROR_UNION_SELECT::get_next()
 
6936
{
 
6937
  int error, dup_row;
 
6938
  QUICK_SELECT_I *quick;
 
6939
  uchar *tmp;
 
6940
 
 
6941
  do
 
6942
  {
 
6943
    do
 
6944
    {
 
6945
      if (!queue.elements)
 
6946
        return(HA_ERR_END_OF_FILE);
 
6947
      /* Ok, we have a queue with >= 1 scans */
 
6948
 
 
6949
      quick= (QUICK_SELECT_I*)queue_top(&queue);
 
6950
      memcpy(cur_rowid, quick->last_rowid, rowid_length);
 
6951
 
 
6952
      /* put into queue rowid from the same stream as top element */
 
6953
      if ((error= quick->get_next()))
 
6954
      {
 
6955
        if (error != HA_ERR_END_OF_FILE)
 
6956
          return(error);
 
6957
        queue_remove(&queue, 0);
 
6958
      }
 
6959
      else
 
6960
      {
 
6961
        quick->save_last_pos();
 
6962
        queue_replaced(&queue);
 
6963
      }
 
6964
 
 
6965
      if (!have_prev_rowid)
 
6966
      {
 
6967
        /* No rows have been returned yet */
 
6968
        dup_row= false;
 
6969
        have_prev_rowid= true;
 
6970
      }
 
6971
      else
 
6972
        dup_row= !head->file->cmp_ref(cur_rowid, prev_rowid);
 
6973
    } while (dup_row);
 
6974
 
 
6975
    tmp= cur_rowid;
 
6976
    cur_rowid= prev_rowid;
 
6977
    prev_rowid= tmp;
 
6978
 
 
6979
    error= head->file->rnd_pos(quick->record, prev_rowid);
 
6980
  } while (error == HA_ERR_RECORD_DELETED);
 
6981
  return(error);
 
6982
}
 
6983
 
 
6984
 
 
6985
int QUICK_RANGE_SELECT::reset()
 
6986
{
 
6987
  uint  buf_size;
 
6988
  uchar *mrange_buff;
 
6989
  int   error;
 
6990
  HANDLER_BUFFER empty_buf;
 
6991
  last_range= NULL;
 
6992
  cur_range= (QUICK_RANGE**) ranges.buffer;
 
6993
 
 
6994
  if (file->inited == handler::NONE && (error= file->ha_index_init(index,1)))
 
6995
    return(error);
 
6996
 
 
6997
  /* Allocate buffer if we need one but haven't allocated it yet */
 
6998
  if (mrr_buf_size && !mrr_buf_desc)
 
6999
  {
 
7000
    buf_size= mrr_buf_size;
 
7001
    while (buf_size && !my_multi_malloc(MYF(MY_WME),
 
7002
                                        &mrr_buf_desc, sizeof(*mrr_buf_desc),
 
7003
                                        &mrange_buff, buf_size,
 
7004
                                        NullS))
 
7005
    {
 
7006
      /* Try to shrink the buffers until both are 0. */
 
7007
      buf_size/= 2;
 
7008
    }
 
7009
    if (!mrr_buf_desc)
 
7010
      return(HA_ERR_OUT_OF_MEM);
 
7011
 
 
7012
    /* Initialize the handler buffer. */
 
7013
    mrr_buf_desc->buffer= mrange_buff;
 
7014
    mrr_buf_desc->buffer_end= mrange_buff + buf_size;
 
7015
    mrr_buf_desc->end_of_used_area= mrange_buff;
 
7016
  }
 
7017
 
 
7018
  if (!mrr_buf_desc)
 
7019
    empty_buf.buffer= empty_buf.buffer_end= empty_buf.end_of_used_area= NULL;
 
7020
 
 
7021
  if (sorted)
 
7022
     mrr_flags |= HA_MRR_SORTED;
 
7023
  RANGE_SEQ_IF seq_funcs= {quick_range_seq_init, quick_range_seq_next};
 
7024
  error= file->multi_range_read_init(&seq_funcs, (void*)this, ranges.elements,
 
7025
                                     mrr_flags, mrr_buf_desc? mrr_buf_desc: 
 
7026
                                                              &empty_buf);
 
7027
  return(error);
 
7028
}
 
7029
 
 
7030
 
 
7031
/*
 
7032
  Range sequence interface implementation for array<QUICK_RANGE>: initialize
 
7033
  
4393
7034
  SYNOPSIS
4394
7035
    quick_range_seq_init()
4395
 
      init_param  Caller-opaque paramenter: QuickRangeSelect* pointer
 
7036
      init_param  Caller-opaque paramenter: QUICK_RANGE_SELECT* pointer
4396
7037
      n_ranges    Number of ranges in the sequence (ignored)
4397
 
      flags       MRR flags (currently not used)
 
7038
      flags       MRR flags (currently not used) 
4398
7039
 
4399
7040
  RETURN
4400
7041
    Opaque value to be passed to quick_range_seq_next
4401
7042
*/
4402
7043
 
4403
 
range_seq_t optimizer::quick_range_seq_init(void *init_param, uint32_t, uint32_t)
 
7044
range_seq_t quick_range_seq_init(void *init_param,
 
7045
                                 uint n_ranges __attribute__((unused)),
 
7046
                                 uint flags __attribute__((unused)))
4404
7047
{
4405
 
  optimizer::QuickRangeSelect *quick= (optimizer::QuickRangeSelect*)init_param;
4406
 
  quick->qr_traversal_ctx.first=  (optimizer::QuickRange**)quick->ranges.buffer;
4407
 
  quick->qr_traversal_ctx.cur=    (optimizer::QuickRange**)quick->ranges.buffer;
 
7048
  QUICK_RANGE_SELECT *quick= (QUICK_RANGE_SELECT*)init_param;
 
7049
  quick->qr_traversal_ctx.first=  (QUICK_RANGE**)quick->ranges.buffer;
 
7050
  quick->qr_traversal_ctx.cur=    (QUICK_RANGE**)quick->ranges.buffer;
4408
7051
  quick->qr_traversal_ctx.last=   quick->qr_traversal_ctx.cur +
4409
7052
                                  quick->ranges.elements;
4410
7053
  return &quick->qr_traversal_ctx;
4412
7055
 
4413
7056
 
4414
7057
/*
4415
 
  Range sequence interface implementation for array<QuickRange>: get next
4416
 
 
 
7058
  Range sequence interface implementation for array<QUICK_RANGE>: get next
 
7059
  
4417
7060
  SYNOPSIS
4418
7061
    quick_range_seq_next()
4419
7062
      rseq        Value returned from quick_range_seq_init
4423
7066
    0  Ok
4424
7067
    1  No more ranges in the sequence
4425
7068
*/
4426
 
uint32_t optimizer::quick_range_seq_next(range_seq_t rseq, KEY_MULTI_RANGE *range)
 
7069
 
 
7070
uint quick_range_seq_next(range_seq_t rseq, KEY_MULTI_RANGE *range)
4427
7071
{
4428
 
  QuickRangeSequenceContext *ctx= (QuickRangeSequenceContext*) rseq;
 
7072
  QUICK_RANGE_SEQ_CTX *ctx= (QUICK_RANGE_SEQ_CTX*)rseq;
4429
7073
 
4430
7074
  if (ctx->cur == ctx->last)
4431
7075
    return 1; /* no more ranges */
4432
7076
 
4433
 
  optimizer::QuickRange *cur= *(ctx->cur);
 
7077
  QUICK_RANGE *cur= *(ctx->cur);
4434
7078
  key_range *start_key= &range->start_key;
4435
 
  key_range *end_key= &range->end_key;
 
7079
  key_range *end_key=   &range->end_key;
4436
7080
 
4437
 
  start_key->key= cur->min_key;
 
7081
  start_key->key=    cur->min_key;
4438
7082
  start_key->length= cur->min_length;
4439
7083
  start_key->keypart_map= cur->min_keypart_map;
4440
 
  start_key->flag= ((cur->flag & NEAR_MIN) ? HA_READ_AFTER_KEY :
4441
 
                                             (cur->flag & EQ_RANGE) ?
4442
 
                                             HA_READ_KEY_EXACT : HA_READ_KEY_OR_NEXT);
4443
 
  end_key->key= cur->max_key;
4444
 
  end_key->length= cur->max_length;
 
7084
  start_key->flag=   ((cur->flag & NEAR_MIN) ? HA_READ_AFTER_KEY :
 
7085
                      (cur->flag & EQ_RANGE) ?
 
7086
                      HA_READ_KEY_EXACT : HA_READ_KEY_OR_NEXT);
 
7087
  end_key->key=      cur->max_key;
 
7088
  end_key->length=   cur->max_length;
4445
7089
  end_key->keypart_map= cur->max_keypart_map;
4446
7090
  /*
4447
7091
    We use HA_READ_AFTER_KEY here because if we are reading on a key
4448
7092
    prefix. We want to find all keys with this prefix.
4449
7093
  */
4450
 
  end_key->flag= (cur->flag & NEAR_MAX ? HA_READ_BEFORE_KEY :
4451
 
                                         HA_READ_AFTER_KEY);
 
7094
  end_key->flag=     (cur->flag & NEAR_MAX ? HA_READ_BEFORE_KEY :
 
7095
                      HA_READ_AFTER_KEY);
4452
7096
  range->range_flag= cur->flag;
4453
7097
  ctx->cur++;
4454
7098
  return 0;
4455
7099
}
4456
7100
 
4457
7101
 
4458
 
static inline uint32_t get_field_keypart(KeyInfo *index, Field *field);
4459
 
 
4460
 
static inline optimizer::SEL_ARG * get_index_range_tree(uint32_t index,
4461
 
                                                        optimizer::SEL_TREE *range_tree,
4462
 
                                                        optimizer::Parameter *param,
4463
 
                                                        uint32_t *param_idx);
4464
 
 
4465
 
static bool get_constant_key_infix(KeyInfo *index_info,
4466
 
                                   optimizer::SEL_ARG *index_range_tree,
4467
 
                                   KeyPartInfo *first_non_group_part,
4468
 
                                   KeyPartInfo *min_max_arg_part,
4469
 
                                   KeyPartInfo *last_part,
4470
 
                                   Session *session,
4471
 
                                   unsigned char *key_infix,
4472
 
                                   uint32_t *key_infix_len,
4473
 
                                   KeyPartInfo **first_non_infix_part);
4474
 
 
4475
 
static bool check_group_min_max_predicates(COND *cond, Item_field *min_max_arg_item);
 
7102
/*
 
7103
  MRR range sequence interface: array<QUICK_RANGE> impl: utility func for NDB
 
7104
 
 
7105
  SYNOPSIS
 
7106
    mrr_persistent_flag_storage()
 
7107
      seq  Range sequence being traversed
 
7108
      idx  Number of range
 
7109
 
 
7110
  DESCRIPTION
 
7111
    MRR/NDB implementation needs to store some bits for each range. This
 
7112
    function returns a reference to the "range_flag" associated with the
 
7113
    range number idx.
 
7114
 
 
7115
    This function should be removed when we get a proper MRR/NDB 
 
7116
    implementation.
 
7117
 
 
7118
  RETURN
 
7119
    Reference to range_flag associated with range number #idx
 
7120
*/
 
7121
 
 
7122
uint16_t &mrr_persistent_flag_storage(range_seq_t seq, uint idx)
 
7123
{
 
7124
  QUICK_RANGE_SEQ_CTX *ctx= (QUICK_RANGE_SEQ_CTX*)seq;
 
7125
  return ctx->first[idx]->flag;
 
7126
}
 
7127
 
 
7128
 
 
7129
/*
 
7130
  MRR range sequence interface: array<QUICK_RANGE> impl: utility func for NDB
 
7131
 
 
7132
  SYNOPSIS
 
7133
    mrr_get_ptr_by_idx()
 
7134
      seq  Range sequence bening traversed
 
7135
      idx  Number of the range
 
7136
 
 
7137
  DESCRIPTION
 
7138
    An extension of MRR range sequence interface needed by NDB: return the
 
7139
    data associated with the given range.
 
7140
 
 
7141
    A proper MRR interface implementer is supposed to store and return
 
7142
    range-associated data. NDB stores number of the range instead. So this
 
7143
    is a helper function that translates range number to range associated
 
7144
    data.
 
7145
 
 
7146
    This function does nothing, as currrently there is only one user of the
 
7147
    MRR interface - the quick range select code, and this user doesn't need
 
7148
    to use range-associated data.
 
7149
 
 
7150
  RETURN
 
7151
    Reference to range-associated data
 
7152
*/
 
7153
 
 
7154
char* &mrr_get_ptr_by_idx(range_seq_t seq __attribute__((unused)),
 
7155
                          uint idx __attribute__((unused)))
 
7156
{
 
7157
  static char *dummy;
 
7158
  return dummy;
 
7159
}
 
7160
 
 
7161
 
 
7162
/*
 
7163
  Get next possible record using quick-struct.
 
7164
 
 
7165
  SYNOPSIS
 
7166
    QUICK_RANGE_SELECT::get_next()
 
7167
 
 
7168
  NOTES
 
7169
    Record is read into table->record[0]
 
7170
 
 
7171
  RETURN
 
7172
    0                   Found row
 
7173
    HA_ERR_END_OF_FILE  No (more) rows in range
 
7174
    #                   Error code
 
7175
*/
 
7176
 
 
7177
int QUICK_RANGE_SELECT::get_next()
 
7178
{
 
7179
  char *dummy;
 
7180
  if (in_ror_merged_scan)
 
7181
  {
 
7182
    /*
 
7183
      We don't need to signal the bitmap change as the bitmap is always the
 
7184
      same for this head->file
 
7185
    */
 
7186
    head->column_bitmaps_set_no_signal(&column_bitmap, &column_bitmap);
 
7187
  }
 
7188
 
 
7189
  int result= file->multi_range_read_next(&dummy);
 
7190
 
 
7191
  if (in_ror_merged_scan)
 
7192
  {
 
7193
    /* Restore bitmaps set on entry */
 
7194
    head->column_bitmaps_set_no_signal(save_read_set, save_write_set);
 
7195
  }
 
7196
  return(result);
 
7197
}
 
7198
 
 
7199
 
 
7200
/*
 
7201
  Get the next record with a different prefix.
 
7202
 
 
7203
  SYNOPSIS
 
7204
    QUICK_RANGE_SELECT::get_next_prefix()
 
7205
    prefix_length  length of cur_prefix
 
7206
    cur_prefix     prefix of a key to be searched for
 
7207
 
 
7208
  DESCRIPTION
 
7209
    Each subsequent call to the method retrieves the first record that has a
 
7210
    prefix with length prefix_length different from cur_prefix, such that the
 
7211
    record with the new prefix is within the ranges described by
 
7212
    this->ranges. The record found is stored into the buffer pointed by
 
7213
    this->record.
 
7214
    The method is useful for GROUP-BY queries with range conditions to
 
7215
    discover the prefix of the next group that satisfies the range conditions.
 
7216
 
 
7217
  TODO
 
7218
    This method is a modified copy of QUICK_RANGE_SELECT::get_next(), so both
 
7219
    methods should be unified into a more general one to reduce code
 
7220
    duplication.
 
7221
 
 
7222
  RETURN
 
7223
    0                  on success
 
7224
    HA_ERR_END_OF_FILE if returned all keys
 
7225
    other              if some error occurred
 
7226
*/
 
7227
 
 
7228
int QUICK_RANGE_SELECT::get_next_prefix(uint prefix_length,
 
7229
                                        key_part_map keypart_map,
 
7230
                                        uchar *cur_prefix)
 
7231
{
 
7232
  for (;;)
 
7233
  {
 
7234
    int result;
 
7235
    key_range start_key, end_key;
 
7236
    if (last_range)
 
7237
    {
 
7238
      /* Read the next record in the same range with prefix after cur_prefix. */
 
7239
      assert(cur_prefix != 0);
 
7240
      result= file->index_read_map(record, cur_prefix, keypart_map,
 
7241
                                   HA_READ_AFTER_KEY);
 
7242
      if (result || (file->compare_key(file->end_range) <= 0))
 
7243
        return(result);
 
7244
    }
 
7245
 
 
7246
    uint count= ranges.elements - (cur_range - (QUICK_RANGE**) ranges.buffer);
 
7247
    if (count == 0)
 
7248
    {
 
7249
      /* Ranges have already been used up before. None is left for read. */
 
7250
      last_range= 0;
 
7251
      return(HA_ERR_END_OF_FILE);
 
7252
    }
 
7253
    last_range= *(cur_range++);
 
7254
 
 
7255
    start_key.key=    (const uchar*) last_range->min_key;
 
7256
    start_key.length= min(last_range->min_length, prefix_length);
 
7257
    start_key.keypart_map= last_range->min_keypart_map & keypart_map;
 
7258
    start_key.flag=   ((last_range->flag & NEAR_MIN) ? HA_READ_AFTER_KEY :
 
7259
                       (last_range->flag & EQ_RANGE) ?
 
7260
                       HA_READ_KEY_EXACT : HA_READ_KEY_OR_NEXT);
 
7261
    end_key.key=      (const uchar*) last_range->max_key;
 
7262
    end_key.length=   min(last_range->max_length, prefix_length);
 
7263
    end_key.keypart_map= last_range->max_keypart_map & keypart_map;
 
7264
    /*
 
7265
      We use READ_AFTER_KEY here because if we are reading on a key
 
7266
      prefix we want to find all keys with this prefix
 
7267
    */
 
7268
    end_key.flag=     (last_range->flag & NEAR_MAX ? HA_READ_BEFORE_KEY :
 
7269
                       HA_READ_AFTER_KEY);
 
7270
 
 
7271
    result= file->read_range_first(last_range->min_keypart_map ? &start_key : 0,
 
7272
                                   last_range->max_keypart_map ? &end_key : 0,
 
7273
                                   test(last_range->flag & EQ_RANGE),
 
7274
                                   sorted);
 
7275
    if (last_range->flag == (UNIQUE_RANGE | EQ_RANGE))
 
7276
      last_range= 0;                    // Stop searching
 
7277
 
 
7278
    if (result != HA_ERR_END_OF_FILE)
 
7279
      return(result);
 
7280
    last_range= 0;                      // No matching rows; go to next range
 
7281
  }
 
7282
}
 
7283
 
 
7284
 
 
7285
/*
 
7286
  Check if current row will be retrieved by this QUICK_RANGE_SELECT
 
7287
 
 
7288
  NOTES
 
7289
    It is assumed that currently a scan is being done on another index
 
7290
    which reads all necessary parts of the index that is scanned by this
 
7291
    quick select.
 
7292
    The implementation does a binary search on sorted array of disjoint
 
7293
    ranges, without taking size of range into account.
 
7294
 
 
7295
    This function is used to filter out clustered PK scan rows in
 
7296
    index_merge quick select.
 
7297
 
 
7298
  RETURN
 
7299
    true  if current row will be retrieved by this quick select
 
7300
    false if not
 
7301
*/
 
7302
 
 
7303
bool QUICK_RANGE_SELECT::row_in_ranges()
 
7304
{
 
7305
  QUICK_RANGE *res;
 
7306
  uint min= 0;
 
7307
  uint max= ranges.elements - 1;
 
7308
  uint mid= (max + min)/2;
 
7309
 
 
7310
  while (min != max)
 
7311
  {
 
7312
    if (cmp_next(*(QUICK_RANGE**)dynamic_array_ptr(&ranges, mid)))
 
7313
    {
 
7314
      /* current row value > mid->max */
 
7315
      min= mid + 1;
 
7316
    }
 
7317
    else
 
7318
      max= mid;
 
7319
    mid= (min + max) / 2;
 
7320
  }
 
7321
  res= *(QUICK_RANGE**)dynamic_array_ptr(&ranges, mid);
 
7322
  return (!cmp_next(res) && !cmp_prev(res));
 
7323
}
 
7324
 
 
7325
/*
 
7326
  This is a hack: we inherit from QUICK_SELECT so that we can use the
 
7327
  get_next() interface, but we have to hold a pointer to the original
 
7328
  QUICK_SELECT because its data are used all over the place.  What
 
7329
  should be done is to factor out the data that is needed into a base
 
7330
  class (QUICK_SELECT), and then have two subclasses (_ASC and _DESC)
 
7331
  which handle the ranges and implement the get_next() function.  But
 
7332
  for now, this seems to work right at least.
 
7333
 */
 
7334
 
 
7335
QUICK_SELECT_DESC::QUICK_SELECT_DESC(QUICK_RANGE_SELECT *q,
 
7336
                                     uint used_key_parts_arg __attribute__((unused)),
 
7337
                                     bool *create_err __attribute__((unused)))
 
7338
 :QUICK_RANGE_SELECT(*q), rev_it(rev_ranges)
 
7339
{
 
7340
  QUICK_RANGE *r;
 
7341
 
 
7342
  QUICK_RANGE **pr= (QUICK_RANGE**)ranges.buffer;
 
7343
  QUICK_RANGE **end_range= pr + ranges.elements;
 
7344
  for (; pr!=end_range; pr++)
 
7345
    rev_ranges.push_front(*pr);
 
7346
 
 
7347
  /* Remove EQ_RANGE flag for keys that are not using the full key */
 
7348
  for (r = rev_it++; r; r = rev_it++)
 
7349
  {
 
7350
    if ((r->flag & EQ_RANGE) &&
 
7351
        head->key_info[index].key_length != r->max_length)
 
7352
      r->flag&= ~EQ_RANGE;
 
7353
  }
 
7354
  rev_it.rewind();
 
7355
  q->dont_free=1;                               // Don't free shared mem
 
7356
  delete q;
 
7357
}
 
7358
 
 
7359
 
 
7360
int QUICK_SELECT_DESC::get_next()
 
7361
{
 
7362
  /* The max key is handled as follows:
 
7363
   *   - if there is NO_MAX_RANGE, start at the end and move backwards
 
7364
   *   - if it is an EQ_RANGE, which means that max key covers the entire
 
7365
   *     key, go directly to the key and read through it (sorting backwards is
 
7366
   *     same as sorting forwards)
 
7367
   *   - if it is NEAR_MAX, go to the key or next, step back once, and
 
7368
   *     move backwards
 
7369
   *   - otherwise (not NEAR_MAX == include the key), go after the key,
 
7370
   *     step back once, and move backwards
 
7371
   */
 
7372
 
 
7373
  for (;;)
 
7374
  {
 
7375
    int result;
 
7376
    if (last_range)
 
7377
    {                                           // Already read through key
 
7378
      result = ((last_range->flag & EQ_RANGE)
 
7379
                ? file->index_next_same(record, last_range->min_key,
 
7380
                                        last_range->min_length) :
 
7381
                file->index_prev(record));
 
7382
      if (!result)
 
7383
      {
 
7384
        if (cmp_prev(*rev_it.ref()) == 0)
 
7385
          return(0);
 
7386
      }
 
7387
      else if (result != HA_ERR_END_OF_FILE)
 
7388
        return(result);
 
7389
    }
 
7390
 
 
7391
    if (!(last_range= rev_it++))
 
7392
      return(HA_ERR_END_OF_FILE);               // All ranges used
 
7393
 
 
7394
    if (last_range->flag & NO_MAX_RANGE)        // Read last record
 
7395
    {
 
7396
      int local_error;
 
7397
      if ((local_error=file->index_last(record)))
 
7398
        return(local_error);            // Empty table
 
7399
      if (cmp_prev(last_range) == 0)
 
7400
        return(0);
 
7401
      last_range= 0;                            // No match; go to next range
 
7402
      continue;
 
7403
    }
 
7404
 
 
7405
    if (last_range->flag & EQ_RANGE)
 
7406
    {
 
7407
      result = file->index_read_map(record, last_range->max_key,
 
7408
                                    last_range->max_keypart_map,
 
7409
                                    HA_READ_KEY_EXACT);
 
7410
    }
 
7411
    else
 
7412
    {
 
7413
      assert(last_range->flag & NEAR_MAX ||
 
7414
                  range_reads_after_key(last_range));
 
7415
      result=file->index_read_map(record, last_range->max_key,
 
7416
                                  last_range->max_keypart_map,
 
7417
                                  ((last_range->flag & NEAR_MAX) ?
 
7418
                                   HA_READ_BEFORE_KEY :
 
7419
                                   HA_READ_PREFIX_LAST_OR_PREV));
 
7420
    }
 
7421
    if (result)
 
7422
    {
 
7423
      if (result != HA_ERR_KEY_NOT_FOUND && result != HA_ERR_END_OF_FILE)
 
7424
        return(result);
 
7425
      last_range= 0;                            // Not found, to next range
 
7426
      continue;
 
7427
    }
 
7428
    if (cmp_prev(last_range) == 0)
 
7429
    {
 
7430
      if (last_range->flag == (UNIQUE_RANGE | EQ_RANGE))
 
7431
        last_range= 0;                          // Stop searching
 
7432
      return(0);                                // Found key is in range
 
7433
    }
 
7434
    last_range= 0;                              // To next range
 
7435
  }
 
7436
}
 
7437
 
 
7438
 
 
7439
/*
 
7440
  Compare if found key is over max-value
 
7441
  Returns 0 if key <= range->max_key
 
7442
  TODO: Figure out why can't this function be as simple as cmp_prev(). 
 
7443
*/
 
7444
 
 
7445
int QUICK_RANGE_SELECT::cmp_next(QUICK_RANGE *range_arg)
 
7446
{
 
7447
  if (range_arg->flag & NO_MAX_RANGE)
 
7448
    return 0;                                   /* key can't be to large */
 
7449
 
 
7450
  KEY_PART *key_part=key_parts;
 
7451
  uint store_length;
 
7452
 
 
7453
  for (uchar *key=range_arg->max_key, *end=key+range_arg->max_length;
 
7454
       key < end;
 
7455
       key+= store_length, key_part++)
 
7456
  {
 
7457
    int cmp;
 
7458
    store_length= key_part->store_length;
 
7459
    if (key_part->null_bit)
 
7460
    {
 
7461
      if (*key)
 
7462
      {
 
7463
        if (!key_part->field->is_null())
 
7464
          return 1;
 
7465
        continue;
 
7466
      }
 
7467
      else if (key_part->field->is_null())
 
7468
        return 0;
 
7469
      key++;                                    // Skip null byte
 
7470
      store_length--;
 
7471
    }
 
7472
    if ((cmp=key_part->field->key_cmp(key, key_part->length)) < 0)
 
7473
      return 0;
 
7474
    if (cmp > 0)
 
7475
      return 1;
 
7476
  }
 
7477
  return (range_arg->flag & NEAR_MAX) ? 1 : 0;          // Exact match
 
7478
}
 
7479
 
 
7480
 
 
7481
/*
 
7482
  Returns 0 if found key is inside range (found key >= range->min_key).
 
7483
*/
 
7484
 
 
7485
int QUICK_RANGE_SELECT::cmp_prev(QUICK_RANGE *range_arg)
 
7486
{
 
7487
  int cmp;
 
7488
  if (range_arg->flag & NO_MIN_RANGE)
 
7489
    return 0;                                   /* key can't be to small */
 
7490
 
 
7491
  cmp= key_cmp(key_part_info, range_arg->min_key,
 
7492
               range_arg->min_length);
 
7493
  if (cmp > 0 || (cmp == 0 && (range_arg->flag & NEAR_MIN) == false))
 
7494
    return 0;
 
7495
  return 1;                                     // outside of range
 
7496
}
 
7497
 
 
7498
 
 
7499
/*
 
7500
 * true if this range will require using HA_READ_AFTER_KEY
 
7501
   See comment in get_next() about this
 
7502
 */
 
7503
 
 
7504
bool QUICK_SELECT_DESC::range_reads_after_key(QUICK_RANGE *range_arg)
 
7505
{
 
7506
  return ((range_arg->flag & (NO_MAX_RANGE | NEAR_MAX)) ||
 
7507
          !(range_arg->flag & EQ_RANGE) ||
 
7508
          head->key_info[index].key_length != range_arg->max_length) ? 1 : 0;
 
7509
}
 
7510
 
 
7511
 
 
7512
void QUICK_RANGE_SELECT::add_info_string(String *str)
 
7513
{
 
7514
  KEY *key_info= head->key_info + index;
 
7515
  str->append(key_info->name);
 
7516
}
 
7517
 
 
7518
void QUICK_INDEX_MERGE_SELECT::add_info_string(String *str)
 
7519
{
 
7520
  QUICK_RANGE_SELECT *quick;
 
7521
  bool first= true;
 
7522
  List_iterator_fast<QUICK_RANGE_SELECT> it(quick_selects);
 
7523
  str->append(STRING_WITH_LEN("sort_union("));
 
7524
  while ((quick= it++))
 
7525
  {
 
7526
    if (!first)
 
7527
      str->append(',');
 
7528
    else
 
7529
      first= false;
 
7530
    quick->add_info_string(str);
 
7531
  }
 
7532
  if (pk_quick_select)
 
7533
  {
 
7534
    str->append(',');
 
7535
    pk_quick_select->add_info_string(str);
 
7536
  }
 
7537
  str->append(')');
 
7538
}
 
7539
 
 
7540
void QUICK_ROR_INTERSECT_SELECT::add_info_string(String *str)
 
7541
{
 
7542
  bool first= true;
 
7543
  QUICK_RANGE_SELECT *quick;
 
7544
  List_iterator_fast<QUICK_RANGE_SELECT> it(quick_selects);
 
7545
  str->append(STRING_WITH_LEN("intersect("));
 
7546
  while ((quick= it++))
 
7547
  {
 
7548
    KEY *key_info= head->key_info + quick->index;
 
7549
    if (!first)
 
7550
      str->append(',');
 
7551
    else
 
7552
      first= false;
 
7553
    str->append(key_info->name);
 
7554
  }
 
7555
  if (cpk_quick)
 
7556
  {
 
7557
    KEY *key_info= head->key_info + cpk_quick->index;
 
7558
    str->append(',');
 
7559
    str->append(key_info->name);
 
7560
  }
 
7561
  str->append(')');
 
7562
}
 
7563
 
 
7564
void QUICK_ROR_UNION_SELECT::add_info_string(String *str)
 
7565
{
 
7566
  bool first= true;
 
7567
  QUICK_SELECT_I *quick;
 
7568
  List_iterator_fast<QUICK_SELECT_I> it(quick_selects);
 
7569
  str->append(STRING_WITH_LEN("union("));
 
7570
  while ((quick= it++))
 
7571
  {
 
7572
    if (!first)
 
7573
      str->append(',');
 
7574
    else
 
7575
      first= false;
 
7576
    quick->add_info_string(str);
 
7577
  }
 
7578
  str->append(')');
 
7579
}
 
7580
 
 
7581
 
 
7582
void QUICK_RANGE_SELECT::add_keys_and_lengths(String *key_names,
 
7583
                                              String *used_lengths)
 
7584
{
 
7585
  char buf[64];
 
7586
  uint length;
 
7587
  KEY *key_info= head->key_info + index;
 
7588
  key_names->append(key_info->name);
 
7589
  length= int64_t2str(max_used_key_length, buf, 10) - buf;
 
7590
  used_lengths->append(buf, length);
 
7591
}
 
7592
 
 
7593
void QUICK_INDEX_MERGE_SELECT::add_keys_and_lengths(String *key_names,
 
7594
                                                    String *used_lengths)
 
7595
{
 
7596
  char buf[64];
 
7597
  uint length;
 
7598
  bool first= true;
 
7599
  QUICK_RANGE_SELECT *quick;
 
7600
 
 
7601
  List_iterator_fast<QUICK_RANGE_SELECT> it(quick_selects);
 
7602
  while ((quick= it++))
 
7603
  {
 
7604
    if (first)
 
7605
      first= false;
 
7606
    else
 
7607
    {
 
7608
      key_names->append(',');
 
7609
      used_lengths->append(',');
 
7610
    }
 
7611
 
 
7612
    KEY *key_info= head->key_info + quick->index;
 
7613
    key_names->append(key_info->name);
 
7614
    length= int64_t2str(quick->max_used_key_length, buf, 10) - buf;
 
7615
    used_lengths->append(buf, length);
 
7616
  }
 
7617
  if (pk_quick_select)
 
7618
  {
 
7619
    KEY *key_info= head->key_info + pk_quick_select->index;
 
7620
    key_names->append(',');
 
7621
    key_names->append(key_info->name);
 
7622
    length= int64_t2str(pk_quick_select->max_used_key_length, buf, 10) - buf;
 
7623
    used_lengths->append(',');
 
7624
    used_lengths->append(buf, length);
 
7625
  }
 
7626
}
 
7627
 
 
7628
void QUICK_ROR_INTERSECT_SELECT::add_keys_and_lengths(String *key_names,
 
7629
                                                      String *used_lengths)
 
7630
{
 
7631
  char buf[64];
 
7632
  uint length;
 
7633
  bool first= true;
 
7634
  QUICK_RANGE_SELECT *quick;
 
7635
  List_iterator_fast<QUICK_RANGE_SELECT> it(quick_selects);
 
7636
  while ((quick= it++))
 
7637
  {
 
7638
    KEY *key_info= head->key_info + quick->index;
 
7639
    if (first)
 
7640
      first= false;
 
7641
    else
 
7642
    {
 
7643
      key_names->append(',');
 
7644
      used_lengths->append(',');
 
7645
    }
 
7646
    key_names->append(key_info->name);
 
7647
    length= int64_t2str(quick->max_used_key_length, buf, 10) - buf;
 
7648
    used_lengths->append(buf, length);
 
7649
  }
 
7650
 
 
7651
  if (cpk_quick)
 
7652
  {
 
7653
    KEY *key_info= head->key_info + cpk_quick->index;
 
7654
    key_names->append(',');
 
7655
    key_names->append(key_info->name);
 
7656
    length= int64_t2str(cpk_quick->max_used_key_length, buf, 10) - buf;
 
7657
    used_lengths->append(',');
 
7658
    used_lengths->append(buf, length);
 
7659
  }
 
7660
}
 
7661
 
 
7662
void QUICK_ROR_UNION_SELECT::add_keys_and_lengths(String *key_names,
 
7663
                                                  String *used_lengths)
 
7664
{
 
7665
  bool first= true;
 
7666
  QUICK_SELECT_I *quick;
 
7667
  List_iterator_fast<QUICK_SELECT_I> it(quick_selects);
 
7668
  while ((quick= it++))
 
7669
  {
 
7670
    if (first)
 
7671
      first= false;
 
7672
    else
 
7673
    {
 
7674
      used_lengths->append(',');
 
7675
      key_names->append(',');
 
7676
    }
 
7677
    quick->add_keys_and_lengths(key_names, used_lengths);
 
7678
  }
 
7679
}
 
7680
 
 
7681
 
 
7682
/*******************************************************************************
 
7683
* Implementation of QUICK_GROUP_MIN_MAX_SELECT
 
7684
*******************************************************************************/
 
7685
 
 
7686
static inline uint get_field_keypart(KEY *index, Field *field);
 
7687
static inline SEL_ARG * get_index_range_tree(uint index, SEL_TREE* range_tree,
 
7688
                                             PARAM *param, uint *param_idx);
 
7689
static bool get_constant_key_infix(KEY *index_info, SEL_ARG *index_range_tree,
 
7690
                       KEY_PART_INFO *first_non_group_part,
 
7691
                       KEY_PART_INFO *min_max_arg_part,
 
7692
                       KEY_PART_INFO *last_part, THD *thd,
 
7693
                       uchar *key_infix, uint *key_infix_len,
 
7694
                       KEY_PART_INFO **first_non_infix_part);
 
7695
static bool
 
7696
check_group_min_max_predicates(COND *cond, Item_field *min_max_arg_item,
 
7697
                               Field::imagetype image_type);
4476
7698
 
4477
7699
static void
4478
 
cost_group_min_max(Table* table,
4479
 
                   KeyInfo *index_info,
4480
 
                   uint32_t used_key_parts,
4481
 
                   uint32_t group_key_parts,
4482
 
                   optimizer::SEL_TREE *range_tree,
4483
 
                   optimizer::SEL_ARG *index_tree,
4484
 
                   ha_rows quick_prefix_records,
4485
 
                   bool have_min,
4486
 
                   bool have_max,
4487
 
                   double *read_cost,
4488
 
                   ha_rows *records);
 
7700
cost_group_min_max(TABLE* table, KEY *index_info, uint used_key_parts,
 
7701
                   uint group_key_parts, SEL_TREE *range_tree,
 
7702
                   SEL_ARG *index_tree, ha_rows quick_prefix_records,
 
7703
                   bool have_min, bool have_max,
 
7704
                   double *read_cost, ha_rows *records);
4489
7705
 
4490
7706
 
4491
7707
/*
4498
7714
    sel_tree Range tree generated by get_mm_tree
4499
7715
 
4500
7716
  DESCRIPTION
4501
 
    Test whether a query can be computed via a QuickGroupMinMaxSelect.
4502
 
    Queries computable via a QuickGroupMinMaxSelect must satisfy the
 
7717
    Test whether a query can be computed via a QUICK_GROUP_MIN_MAX_SELECT.
 
7718
    Queries computable via a QUICK_GROUP_MIN_MAX_SELECT must satisfy the
4503
7719
    following conditions:
4504
7720
    A) Table T has at least one compound index I of the form:
4505
7721
       I = <A_1, ...,A_k, [B_1,..., B_m], C, [D_1,...,D_n]>
4516
7732
        - NGA = QA - (GA union C) = {NG_1, ..., NG_m} - the ones not in
4517
7733
          GROUP BY and not referenced by MIN/MAX functions.
4518
7734
        with the following properties specified below.
4519
 
    B3. If Q has a GROUP BY WITH ROLLUP clause the access method is not
 
7735
    B3. If Q has a GROUP BY WITH ROLLUP clause the access method is not 
4520
7736
        applicable.
4521
7737
 
4522
7738
    SA1. There is at most one attribute in SA referenced by any number of
4583
7799
  NOTES
4584
7800
    If the current query satisfies the conditions above, and if
4585
7801
    (mem_root! = NULL), then the function constructs and returns a new TRP
4586
 
    object, that is later used to construct a new QuickGroupMinMaxSelect.
 
7802
    object, that is later used to construct a new QUICK_GROUP_MIN_MAX_SELECT.
4587
7803
    If (mem_root == NULL), then the function only tests whether the current
4588
7804
    query satisfies the conditions above, and, if so, sets
4589
7805
    is_applicable = true.
4604
7820
    other field as in: "select min(a) from t1 group by a" ?
4605
7821
  - We assume that the general correctness of the GROUP-BY query was checked
4606
7822
    before this point. Is this correct, or do we have to check it completely?
4607
 
  - Lift the limitation in condition (B3), that is, make this access method
 
7823
  - Lift the limitation in condition (B3), that is, make this access method 
4608
7824
    applicable to ROLLUP queries.
4609
7825
 
4610
7826
  RETURN
4611
7827
    If mem_root != NULL
4612
 
    - valid GroupMinMaxReadPlan object if this QUICK class can be used for
 
7828
    - valid TRP_GROUP_MIN_MAX object if this QUICK class can be used for
4613
7829
      the query
4614
7830
    -  NULL o/w.
4615
7831
    If mem_root == NULL
4616
7832
    - NULL
4617
7833
*/
4618
 
static optimizer::GroupMinMaxReadPlan *
4619
 
get_best_group_min_max(optimizer::Parameter *param, optimizer::SEL_TREE *tree)
 
7834
 
 
7835
static TRP_GROUP_MIN_MAX *
 
7836
get_best_group_min_max(PARAM *param, SEL_TREE *tree)
4620
7837
{
4621
 
  Session *session= param->session;
4622
 
  Join *join= session->lex->current_select->join;
4623
 
  Table *table= param->table;
 
7838
  THD *thd= param->thd;
 
7839
  JOIN *join= thd->lex->current_select->join;
 
7840
  TABLE *table= param->table;
4624
7841
  bool have_min= false;              /* true if there is a MIN function. */
4625
7842
  bool have_max= false;              /* true if there is a MAX function. */
4626
7843
  Item_field *min_max_arg_item= NULL; // The argument of all MIN/MAX functions
4627
 
  KeyPartInfo *min_max_arg_part= NULL; /* The corresponding keypart. */
4628
 
  uint32_t group_prefix_len= 0; /* Length (in bytes) of the key prefix. */
4629
 
  KeyInfo *index_info= NULL;    /* The index chosen for data access. */
4630
 
  uint32_t index= 0;            /* The id of the chosen index. */
4631
 
  uint32_t group_key_parts= 0;  // Number of index key parts in the group prefix.
4632
 
  uint32_t used_key_parts= 0;   /* Number of index key parts used for access. */
4633
 
  unsigned char key_infix[MAX_KEY_LENGTH]; /* Constants from equality predicates.*/
4634
 
  uint32_t key_infix_len= 0;          /* Length of key_infix. */
4635
 
  optimizer::GroupMinMaxReadPlan *read_plan= NULL; /* The eventually constructed TRP. */
4636
 
  uint32_t key_part_nr;
4637
 
  order_st *tmp_group= NULL;
4638
 
  Item *item= NULL;
4639
 
  Item_field *item_field= NULL;
 
7844
  KEY_PART_INFO *min_max_arg_part= NULL; /* The corresponding keypart. */
 
7845
  uint group_prefix_len= 0; /* Length (in bytes) of the key prefix. */
 
7846
  KEY *index_info= NULL;    /* The index chosen for data access. */
 
7847
  uint index= 0;            /* The id of the chosen index. */
 
7848
  uint group_key_parts= 0;  // Number of index key parts in the group prefix.
 
7849
  uint used_key_parts= 0;   /* Number of index key parts used for access. */
 
7850
  uchar key_infix[MAX_KEY_LENGTH]; /* Constants from equality predicates.*/
 
7851
  uint key_infix_len= 0;          /* Length of key_infix. */
 
7852
  TRP_GROUP_MIN_MAX *read_plan= NULL; /* The eventually constructed TRP. */
 
7853
  uint key_part_nr;
 
7854
  ORDER *tmp_group;
 
7855
  Item *item;
 
7856
  Item_field *item_field;
4640
7857
 
4641
7858
  /* Perform few 'cheap' tests whether this access method is applicable. */
4642
 
  if (! join)
4643
 
    return NULL;        /* This is not a select statement. */
4644
 
 
 
7859
  if (!join)
 
7860
    return(NULL);        /* This is not a select statement. */
4645
7861
  if ((join->tables != 1) ||  /* The query must reference one table. */
4646
 
      ((! join->group_list) && /* Neither GROUP BY nor a DISTINCT query. */
4647
 
       (! join->select_distinct)) ||
 
7862
      ((!join->group_list) && /* Neither GROUP BY nor a DISTINCT query. */
 
7863
       (!join->select_distinct)) ||
4648
7864
      (join->select_lex->olap == ROLLUP_TYPE)) /* Check (B3) for ROLLUP */
4649
 
    return NULL;
4650
 
  if (table->getShare()->sizeKeys() == 0)        /* There are no indexes to use. */
4651
 
    return NULL;
 
7865
    return(NULL);
 
7866
  if (table->s->keys == 0)        /* There are no indexes to use. */
 
7867
    return(NULL);
4652
7868
 
4653
7869
  /* Analyze the query in more detail. */
4654
7870
  List_iterator<Item> select_items_it(join->fields_list);
4655
7871
 
4656
7872
  /* Check (SA1,SA4) and store the only MIN/MAX argument - the C attribute.*/
4657
7873
  if (join->make_sum_func_list(join->all_fields, join->fields_list, 1))
4658
 
    return NULL;
4659
 
 
 
7874
    return(NULL);
4660
7875
  if (join->sum_funcs[0])
4661
7876
  {
4662
 
    Item_sum *min_max_item= NULL;
 
7877
    Item_sum *min_max_item;
4663
7878
    Item_sum **func_ptr= join->sum_funcs;
4664
7879
    while ((min_max_item= *(func_ptr++)))
4665
7880
    {
4668
7883
      else if (min_max_item->sum_func() == Item_sum::MAX_FUNC)
4669
7884
        have_max= true;
4670
7885
      else
4671
 
        return NULL;
 
7886
        return(NULL);
4672
7887
 
4673
7888
      /* The argument of MIN/MAX. */
4674
 
      Item *expr= min_max_item->args[0]->real_item();
 
7889
      Item *expr= min_max_item->args[0]->real_item();    
4675
7890
      if (expr->type() == Item::FIELD_ITEM) /* Is it an attribute? */
4676
7891
      {
4677
7892
        if (! min_max_arg_item)
4678
7893
          min_max_arg_item= (Item_field*) expr;
4679
7894
        else if (! min_max_arg_item->eq(expr, 1))
4680
 
          return NULL;
 
7895
          return(NULL);
4681
7896
      }
4682
7897
      else
4683
 
        return NULL;
 
7898
        return(NULL);
4684
7899
    }
4685
7900
  }
4686
7901
 
4690
7905
    while ((item= select_items_it++))
4691
7906
    {
4692
7907
      if (item->type() != Item::FIELD_ITEM)
4693
 
        return NULL;
 
7908
        return(NULL);
4694
7909
    }
4695
7910
  }
4696
7911
 
4698
7913
  for (tmp_group= join->group_list; tmp_group; tmp_group= tmp_group->next)
4699
7914
  {
4700
7915
    if ((*tmp_group->item)->type() != Item::FIELD_ITEM)
4701
 
      return NULL;
 
7916
      return(NULL);
4702
7917
  }
4703
7918
 
4704
7919
  /*
4706
7921
    (GA1,GA2) are all true. If there is more than one such index, select the
4707
7922
    first one. Here we set the variables: group_prefix_len and index_info.
4708
7923
  */
4709
 
  KeyInfo *cur_index_info= table->key_info;
4710
 
  KeyInfo *cur_index_info_end= cur_index_info + table->getShare()->sizeKeys();
4711
 
  KeyPartInfo *cur_part= NULL;
4712
 
  KeyPartInfo *end_part= NULL; /* Last part for loops. */
 
7924
  KEY *cur_index_info= table->key_info;
 
7925
  KEY *cur_index_info_end= cur_index_info + table->s->keys;
 
7926
  KEY_PART_INFO *cur_part= NULL;
 
7927
  KEY_PART_INFO *end_part; /* Last part for loops. */
4713
7928
  /* Last index part. */
4714
 
  KeyPartInfo *last_part= NULL;
4715
 
  KeyPartInfo *first_non_group_part= NULL;
4716
 
  KeyPartInfo *first_non_infix_part= NULL;
4717
 
  uint32_t key_infix_parts= 0;
4718
 
  uint32_t cur_group_key_parts= 0;
4719
 
  uint32_t cur_group_prefix_len= 0;
 
7929
  KEY_PART_INFO *last_part= NULL;
 
7930
  KEY_PART_INFO *first_non_group_part= NULL;
 
7931
  KEY_PART_INFO *first_non_infix_part= NULL;
 
7932
  uint key_infix_parts= 0;
 
7933
  uint cur_group_key_parts= 0;
 
7934
  uint cur_group_prefix_len= 0;
4720
7935
  /* Cost-related variables for the best index so far. */
4721
7936
  double best_read_cost= DBL_MAX;
4722
7937
  ha_rows best_records= 0;
4723
 
  optimizer::SEL_ARG *best_index_tree= NULL;
 
7938
  SEL_ARG *best_index_tree= NULL;
4724
7939
  ha_rows best_quick_prefix_records= 0;
4725
 
  uint32_t best_param_idx= 0;
 
7940
  uint best_param_idx= 0;
4726
7941
  double cur_read_cost= DBL_MAX;
4727
7942
  ha_rows cur_records;
4728
 
  optimizer::SEL_ARG *cur_index_tree= NULL;
 
7943
  SEL_ARG *cur_index_tree= NULL;
4729
7944
  ha_rows cur_quick_prefix_records= 0;
4730
 
  uint32_t cur_param_idx= MAX_KEY;
4731
 
  key_map used_key_parts_map;
4732
 
  uint32_t cur_key_infix_len= 0;
4733
 
  unsigned char cur_key_infix[MAX_KEY_LENGTH];
4734
 
  uint32_t cur_used_key_parts= 0;
4735
 
  uint32_t pk= param->table->getShare()->getPrimaryKey();
 
7945
  uint cur_param_idx=MAX_KEY;
 
7946
  key_map cur_used_key_parts;
 
7947
  uint pk= param->table->s->primary_key;
4736
7948
 
4737
 
  for (uint32_t cur_index= 0;
4738
 
       cur_index_info != cur_index_info_end;
 
7949
  for (uint cur_index= 0 ; cur_index_info != cur_index_info_end ;
4739
7950
       cur_index_info++, cur_index++)
4740
7951
  {
4741
7952
    /* Check (B1) - if current index is covering. */
4742
 
    if (! table->covering_keys.test(cur_index))
 
7953
    if (!table->covering_keys.is_set(cur_index))
4743
7954
      goto next_index;
4744
7955
 
4745
7956
    /*
4752
7963
      we check that all query fields are indeed covered by 'cur_index'.
4753
7964
    */
4754
7965
    if (pk < MAX_KEY && cur_index != pk &&
4755
 
        (table->cursor->getEngine()->check_flag(HTON_BIT_PRIMARY_KEY_IN_READ_INDEX)))
 
7966
        (table->file->ha_table_flags() & HA_PRIMARY_KEY_IN_READ_INDEX))
4756
7967
    {
4757
7968
      /* For each table field */
4758
 
      for (uint32_t i= 0; i < table->getShare()->sizeFields(); i++)
 
7969
      for (uint i= 0; i < table->s->fields; i++)
4759
7970
      {
4760
 
        Field *cur_field= table->getField(i);
 
7971
        Field *cur_field= table->field[i];
4761
7972
        /*
4762
7973
          If the field is used in the current query ensure that it's
4763
7974
          part of 'cur_index'
4764
7975
        */
4765
 
        if ((cur_field->isReadSet()) &&
4766
 
            ! cur_field->part_of_key_not_clustered.test(cur_index))
 
7976
        if (bitmap_is_set(table->read_set, cur_field->field_index) &&
 
7977
            !cur_field->part_of_key_not_clustered.is_set(cur_index))
4767
7978
          goto next_index;                  // Field was not part of key
4768
7979
      }
4769
7980
    }
4776
7987
      cur_part= cur_index_info->key_part;
4777
7988
      end_part= cur_part + cur_index_info->key_parts;
4778
7989
      /* Iterate in parallel over the GROUP list and the index parts. */
4779
 
      for (tmp_group= join->group_list;
4780
 
           tmp_group && (cur_part != end_part);
 
7990
      for (tmp_group= join->group_list; tmp_group && (cur_part != end_part);
4781
7991
           tmp_group= tmp_group->next, cur_part++)
4782
7992
      {
4783
7993
        /*
4799
8009
    }
4800
8010
    /*
4801
8011
      Check (GA2) if this is a DISTINCT query.
4802
 
      If GA2, then Store a new order_st object in group_fields_array at the
4803
 
      position of the key part of item_field->field. Thus we get the order_st
 
8012
      If GA2, then Store a new ORDER object in group_fields_array at the
 
8013
      position of the key part of item_field->field. Thus we get the ORDER
4804
8014
      objects for each field ordered as the corresponding key parts.
4805
 
      Later group_fields_array of order_st objects is used to convert the query
 
8015
      Later group_fields_array of ORDER objects is used to convert the query
4806
8016
      to a GROUP query.
4807
8017
    */
4808
8018
    else if (join->select_distinct)
4809
8019
    {
4810
8020
      select_items_it.rewind();
4811
 
      used_key_parts_map.reset();
4812
 
      uint32_t max_key_part= 0;
 
8021
      cur_used_key_parts.clear_all();
 
8022
      uint max_key_part= 0;
4813
8023
      while ((item= select_items_it++))
4814
8024
      {
4815
8025
        item_field= (Item_field*) item; /* (SA5) already checked above. */
4819
8029
          Check if this attribute was already present in the select list.
4820
8030
          If it was present, then its corresponding key part was alredy used.
4821
8031
        */
4822
 
        if (used_key_parts_map.test(key_part_nr))
 
8032
        if (cur_used_key_parts.is_set(key_part_nr))
4823
8033
          continue;
4824
8034
        if (key_part_nr < 1 || key_part_nr > join->fields_list.elements)
4825
8035
          goto next_index;
4826
8036
        cur_part= cur_index_info->key_part + key_part_nr - 1;
4827
8037
        cur_group_prefix_len+= cur_part->store_length;
4828
 
        used_key_parts_map.set(key_part_nr);
 
8038
        cur_used_key_parts.set_bit(key_part_nr);
4829
8039
        ++cur_group_key_parts;
4830
8040
        max_key_part= max(max_key_part,key_part_nr);
4831
8041
      }
4835
8045
        all_parts have all bits set from 0 to (max_key_part-1).
4836
8046
        cur_parts have bits set for only used keyparts.
4837
8047
      */
4838
 
      key_map all_parts;
4839
 
      key_map cur_parts;
4840
 
      for (uint32_t pos= 0; pos < max_key_part; pos++)
4841
 
        all_parts.set(pos);
4842
 
      cur_parts= used_key_parts_map >> 1;
 
8048
      uint64_t all_parts, cur_parts;
 
8049
      all_parts= (1<<max_key_part) - 1;
 
8050
      cur_parts= cur_used_key_parts.to_uint64_t() >> 1;
4843
8051
      if (all_parts != cur_parts)
4844
8052
        goto next_index;
4845
8053
    }
4880
8088
                             NULL :
4881
8089
                           NULL;
4882
8090
    if (first_non_group_part &&
4883
 
        (! min_max_arg_part || (min_max_arg_part - first_non_group_part > 0)))
 
8091
        (!min_max_arg_part || (min_max_arg_part - first_non_group_part > 0)))
4884
8092
    {
4885
8093
      if (tree)
4886
8094
      {
4887
 
        uint32_t dummy;
4888
 
        optimizer::SEL_ARG *index_range_tree= get_index_range_tree(cur_index,
4889
 
                                                                   tree,
4890
 
                                                                   param,
4891
 
                                                                   &dummy);
4892
 
        if (! get_constant_key_infix(cur_index_info,
4893
 
                                     index_range_tree,
4894
 
                                     first_non_group_part,
4895
 
                                     min_max_arg_part,
4896
 
                                     last_part,
4897
 
                                     session,
4898
 
                                     cur_key_infix,
4899
 
                                     &cur_key_infix_len,
4900
 
                                     &first_non_infix_part))
4901
 
        {
 
8095
        uint dummy;
 
8096
        SEL_ARG *index_range_tree= get_index_range_tree(cur_index, tree, param,
 
8097
                                                        &dummy);
 
8098
        if (!get_constant_key_infix(cur_index_info, index_range_tree,
 
8099
                                    first_non_group_part, min_max_arg_part,
 
8100
                                    last_part, thd, key_infix, &key_infix_len,
 
8101
                                    &first_non_infix_part))
4902
8102
          goto next_index;
4903
 
        }
4904
8103
      }
4905
8104
      else if (min_max_arg_part &&
4906
8105
               (min_max_arg_part - first_non_group_part > 0))
4925
8124
          Store the first and last keyparts that need to be analyzed
4926
8125
          into one array that can be passed as parameter.
4927
8126
        */
4928
 
        KeyPartInfo *key_part_range[2];
 
8127
        KEY_PART_INFO *key_part_range[2];
4929
8128
        key_part_range[0]= first_non_group_part;
4930
8129
        key_part_range[1]= last_part;
4931
8130
 
4932
8131
        /* Check if cur_part is referenced in the WHERE clause. */
4933
 
        if (join->conds->walk(&Item::find_item_in_field_list_processor,
4934
 
                              0,
4935
 
                              (unsigned char*) key_part_range))
 
8132
        if (join->conds->walk(&Item::find_item_in_field_list_processor, 0,
 
8133
                              (uchar*) key_part_range))
4936
8134
          goto next_index;
4937
8135
      }
4938
8136
    }
4947
8145
                (min_max_arg_part && (min_max_arg_part < last_part));
4948
8146
      for (; cur_part != last_part; cur_part++)
4949
8147
      {
4950
 
        if (cur_part->field->isReadSet())
 
8148
        if (bitmap_is_set(table->read_set, cur_part->field->field_index))
4951
8149
          goto next_index;
4952
8150
      }
4953
8151
    }
4954
8152
 
4955
8153
    /* If we got to this point, cur_index_info passes the test. */
4956
 
    key_infix_parts= cur_key_infix_len ?
 
8154
    key_infix_parts= key_infix_len ?
4957
8155
                     (first_non_infix_part - first_non_group_part) : 0;
4958
 
    cur_used_key_parts= cur_group_key_parts + key_infix_parts;
 
8156
    used_key_parts= cur_group_key_parts + key_infix_parts;
4959
8157
 
4960
8158
    /* Compute the cost of using this index. */
4961
8159
    if (tree)
4962
8160
    {
4963
8161
      /* Find the SEL_ARG sub-tree that corresponds to the chosen index. */
4964
 
      cur_index_tree= get_index_range_tree(cur_index,
4965
 
                                           tree,
4966
 
                                           param,
 
8162
      cur_index_tree= get_index_range_tree(cur_index, tree, param,
4967
8163
                                           &cur_param_idx);
4968
8164
      /* Check if this range tree can be used for prefix retrieval. */
4969
 
      optimizer::CostVector dummy_cost;
4970
 
      uint32_t mrr_flags= HA_MRR_USE_DEFAULT_IMPL;
4971
 
      uint32_t mrr_bufsize= 0;
4972
 
      cur_quick_prefix_records= check_quick_select(session,
4973
 
                                                   param,
4974
 
                                                   cur_param_idx,
4975
 
                                                   false /*don't care*/,
4976
 
                                                   cur_index_tree,
4977
 
                                                   true,
4978
 
                                                   &mrr_flags,
4979
 
                                                   &mrr_bufsize,
 
8165
      COST_VECT dummy_cost;
 
8166
      uint mrr_flags= HA_MRR_USE_DEFAULT_IMPL;
 
8167
      uint mrr_bufsize=0;
 
8168
      cur_quick_prefix_records= check_quick_select(param, cur_param_idx, 
 
8169
                                                   false /*don't care*/, 
 
8170
                                                   cur_index_tree, true,
 
8171
                                                   &mrr_flags, &mrr_bufsize,
4980
8172
                                                   &dummy_cost);
4981
8173
    }
4982
 
    cost_group_min_max(table,
4983
 
                       cur_index_info,
4984
 
                       cur_used_key_parts,
4985
 
                       cur_group_key_parts,
4986
 
                       tree,
4987
 
                       cur_index_tree,
4988
 
                       cur_quick_prefix_records,
4989
 
                       have_min,
4990
 
                       have_max,
4991
 
                       &cur_read_cost,
4992
 
                       &cur_records);
 
8174
    cost_group_min_max(table, cur_index_info, used_key_parts,
 
8175
                       cur_group_key_parts, tree, cur_index_tree,
 
8176
                       cur_quick_prefix_records, have_min, have_max,
 
8177
                       &cur_read_cost, &cur_records);
4993
8178
    /*
4994
8179
      If cur_read_cost is lower than best_read_cost use cur_index.
4995
8180
      Do not compare doubles directly because they may have different
5007
8192
      best_param_idx= cur_param_idx;
5008
8193
      group_key_parts= cur_group_key_parts;
5009
8194
      group_prefix_len= cur_group_prefix_len;
5010
 
      key_infix_len= cur_key_infix_len;
5011
 
 
5012
 
      if (key_infix_len)
5013
 
      {
5014
 
        memcpy(key_infix, cur_key_infix, sizeof (key_infix));
5015
 
      }
5016
 
 
5017
 
      used_key_parts= cur_used_key_parts;
5018
8195
    }
5019
8196
 
5020
8197
  next_index:
5021
8198
    cur_group_key_parts= 0;
5022
8199
    cur_group_prefix_len= 0;
5023
 
    cur_key_infix_len= 0;
5024
8200
  }
5025
 
  if (! index_info) /* No usable index found. */
5026
 
    return NULL;
 
8201
  if (!index_info) /* No usable index found. */
 
8202
    return(NULL);
5027
8203
 
5028
8204
  /* Check (SA3) for the where clause. */
5029
8205
  if (join->conds && min_max_arg_item &&
5030
 
      ! check_group_min_max_predicates(join->conds, min_max_arg_item))
5031
 
    return NULL;
 
8206
      !check_group_min_max_predicates(join->conds, min_max_arg_item,
 
8207
                                      (index_info->flags & HA_SPATIAL) ?
 
8208
                                      Field::itMBR : Field::itRAW))
 
8209
    return(NULL);
5032
8210
 
5033
8211
  /* The query passes all tests, so construct a new TRP object. */
5034
 
  read_plan=
5035
 
    new(param->mem_root) optimizer::GroupMinMaxReadPlan(have_min,
5036
 
                                                        have_max,
5037
 
                                                        min_max_arg_part,
5038
 
                                                        group_prefix_len,
5039
 
                                                        used_key_parts,
5040
 
                                                        group_key_parts,
5041
 
                                                        index_info,
5042
 
                                                        index,
5043
 
                                                        key_infix_len,
5044
 
                                                        (key_infix_len > 0) ? key_infix : NULL,
5045
 
                                                        tree,
5046
 
                                                        best_index_tree,
5047
 
                                                        best_param_idx,
5048
 
                                                        best_quick_prefix_records);
 
8212
  read_plan= new (param->mem_root)
 
8213
                 TRP_GROUP_MIN_MAX(have_min, have_max, min_max_arg_part,
 
8214
                                   group_prefix_len, used_key_parts,
 
8215
                                   group_key_parts, index_info, index,
 
8216
                                   key_infix_len,
 
8217
                                   (key_infix_len > 0) ? key_infix : NULL,
 
8218
                                   tree, best_index_tree, best_param_idx,
 
8219
                                   best_quick_prefix_records);
5049
8220
  if (read_plan)
5050
8221
  {
5051
8222
    if (tree && read_plan->quick_prefix_records == 0)
5052
 
      return NULL;
 
8223
      return(NULL);
5053
8224
 
5054
8225
    read_plan->read_cost= best_read_cost;
5055
 
    read_plan->records= best_records;
 
8226
    read_plan->records=   best_records;
5056
8227
  }
5057
8228
 
5058
 
  return read_plan;
 
8229
  return(read_plan);
5059
8230
}
5060
8231
 
5061
8232
 
5080
8251
    true  if cond passes the test
5081
8252
    false o/w
5082
8253
*/
5083
 
static bool check_group_min_max_predicates(COND *cond, Item_field *min_max_arg_item)
 
8254
 
 
8255
static bool
 
8256
check_group_min_max_predicates(COND *cond, Item_field *min_max_arg_item,
 
8257
                               Field::imagetype image_type)
5084
8258
{
5085
8259
  assert(cond && min_max_arg_item);
5086
8260
 
5089
8263
  if (cond_type == Item::COND_ITEM) /* 'AND' or 'OR' */
5090
8264
  {
5091
8265
    List_iterator_fast<Item> li(*((Item_cond*) cond)->argument_list());
5092
 
    Item *and_or_arg= NULL;
 
8266
    Item *and_or_arg;
5093
8267
    while ((and_or_arg= li++))
5094
8268
    {
5095
 
      if (! check_group_min_max_predicates(and_or_arg, min_max_arg_item))
5096
 
        return false;
 
8269
      if (!check_group_min_max_predicates(and_or_arg, min_max_arg_item,
 
8270
                                         image_type))
 
8271
        return(false);
5097
8272
    }
5098
 
    return true;
 
8273
    return(true);
5099
8274
  }
5100
8275
 
5101
8276
  /*
5108
8283
    so.
5109
8284
  */
5110
8285
  if (cond_type == Item::SUBSELECT_ITEM)
5111
 
    return false;
5112
 
 
 
8286
    return(false);
 
8287
  
5113
8288
  /* We presume that at this point there are no other Items than functions. */
5114
8289
  assert(cond_type == Item::FUNC_ITEM);
5115
8290
 
5116
8291
  /* Test if cond references only group-by or non-group fields. */
5117
8292
  Item_func *pred= (Item_func*) cond;
5118
8293
  Item **arguments= pred->arguments();
5119
 
  Item *cur_arg= NULL;
5120
 
  for (uint32_t arg_idx= 0; arg_idx < pred->argument_count (); arg_idx++)
 
8294
  Item *cur_arg;
 
8295
  for (uint arg_idx= 0; arg_idx < pred->argument_count (); arg_idx++)
5121
8296
  {
5122
8297
    cur_arg= arguments[arg_idx]->real_item();
5123
8298
    if (cur_arg->type() == Item::FIELD_ITEM)
5124
8299
    {
5125
 
      if (min_max_arg_item->eq(cur_arg, 1))
 
8300
      if (min_max_arg_item->eq(cur_arg, 1)) 
5126
8301
      {
5127
8302
       /*
5128
8303
         If pred references the MIN/MAX argument, check whether pred is a range
5139
8314
            pred_type != Item_func::ISNOTNULL_FUNC &&
5140
8315
            pred_type != Item_func::EQ_FUNC        &&
5141
8316
            pred_type != Item_func::NE_FUNC)
5142
 
          return false;
 
8317
          return(false);
5143
8318
 
5144
8319
        /* Check that pred compares min_max_arg_item with a constant. */
5145
8320
        Item *args[3];
5146
8321
        memset(args, 0, 3 * sizeof(Item*));
5147
 
        bool inv= false;
 
8322
        bool inv;
5148
8323
        /* Test if this is a comparison of a field and a constant. */
5149
 
        if (! optimizer::simple_pred(pred, args, inv))
5150
 
          return false;
 
8324
        if (!simple_pred(pred, args, &inv))
 
8325
          return(false);
5151
8326
 
5152
8327
        /* Check for compatible string comparisons - similar to get_mm_leaf. */
5153
8328
        if (args[0] && args[1] && !args[2] && // this is a binary function
5156
8331
              Don't use an index when comparing strings of different collations.
5157
8332
            */
5158
8333
            ((args[1]->result_type() == STRING_RESULT &&
 
8334
              image_type == Field::itRAW &&
5159
8335
              ((Field_str*) min_max_arg_item->field)->charset() !=
5160
8336
              pred->compare_collation())
5161
8337
             ||
5165
8341
             */
5166
8342
             (args[1]->result_type() != STRING_RESULT &&
5167
8343
              min_max_arg_item->field->cmp_type() != args[1]->result_type())))
5168
 
        {
5169
 
          return false;
5170
 
        }
 
8344
          return(false);
5171
8345
      }
5172
8346
    }
5173
8347
    else if (cur_arg->type() == Item::FUNC_ITEM)
5174
8348
    {
5175
 
      if (! check_group_min_max_predicates(cur_arg, min_max_arg_item))
5176
 
        return false;
 
8349
      if (!check_group_min_max_predicates(cur_arg, min_max_arg_item,
 
8350
                                         image_type))
 
8351
        return(false);
5177
8352
    }
5178
8353
    else if (cur_arg->const_item())
5179
8354
    {
5180
 
      return true;
 
8355
      return(true);
5181
8356
    }
5182
8357
    else
5183
 
      return false;
 
8358
      return(false);
5184
8359
  }
5185
8360
 
5186
 
  return true;
 
8361
  return(true);
5187
8362
}
5188
8363
 
5189
8364
 
5197
8372
    first_non_group_part   [in]  First index part after group attribute parts
5198
8373
    min_max_arg_part       [in]  The keypart of the MIN/MAX argument if any
5199
8374
    last_part              [in]  Last keypart of the index
5200
 
    session                    [in]  Current thread
 
8375
    thd                    [in]  Current thread
5201
8376
    key_infix              [out] Infix of constants to be used for index lookup
5202
8377
    key_infix_len          [out] Lenghth of the infix
5203
8378
    first_non_infix_part   [out] The first keypart after the infix (if any)
5204
 
 
 
8379
    
5205
8380
  DESCRIPTION
5206
8381
    Test conditions (NGA1, NGA2) from get_best_group_min_max(). Namely,
5207
8382
    for each keypart field NGF_i not in GROUP-BY, check that there is a
5217
8392
    true  if the index passes the test
5218
8393
    false o/w
5219
8394
*/
 
8395
 
5220
8396
static bool
5221
 
get_constant_key_infix(KeyInfo *,
5222
 
                       optimizer::SEL_ARG *index_range_tree,
5223
 
                       KeyPartInfo *first_non_group_part,
5224
 
                       KeyPartInfo *min_max_arg_part,
5225
 
                       KeyPartInfo *last_part,
5226
 
                       Session *,
5227
 
                       unsigned char *key_infix,
5228
 
                       uint32_t *key_infix_len,
5229
 
                       KeyPartInfo **first_non_infix_part)
 
8397
get_constant_key_infix(KEY *index_info __attribute__((unused)),
 
8398
                       SEL_ARG *index_range_tree,
 
8399
                       KEY_PART_INFO *first_non_group_part,
 
8400
                       KEY_PART_INFO *min_max_arg_part,
 
8401
                       KEY_PART_INFO *last_part,
 
8402
                       THD *thd __attribute__((unused)),
 
8403
                       uchar *key_infix, uint *key_infix_len,
 
8404
                       KEY_PART_INFO **first_non_infix_part)
5230
8405
{
5231
 
  optimizer::SEL_ARG *cur_range= NULL;
5232
 
  KeyPartInfo *cur_part= NULL;
 
8406
  SEL_ARG       *cur_range;
 
8407
  KEY_PART_INFO *cur_part;
5233
8408
  /* End part for the first loop below. */
5234
 
  KeyPartInfo *end_part= min_max_arg_part ? min_max_arg_part : last_part;
 
8409
  KEY_PART_INFO *end_part= min_max_arg_part ? min_max_arg_part : last_part;
5235
8410
 
5236
8411
  *key_infix_len= 0;
5237
 
  unsigned char *key_ptr= key_infix;
 
8412
  uchar *key_ptr= key_infix;
5238
8413
  for (cur_part= first_non_group_part; cur_part != end_part; cur_part++)
5239
8414
  {
5240
8415
    /*
5247
8422
      if (cur_range->field->eq(cur_part->field))
5248
8423
        break;
5249
8424
    }
5250
 
    if (! cur_range)
 
8425
    if (!cur_range)
5251
8426
    {
5252
8427
      if (min_max_arg_part)
5253
8428
        return false; /* The current keypart has no range predicates at all. */
5263
8438
      return false; /* This is not the only range predicate for the field. */
5264
8439
    if ((cur_range->min_flag & NO_MIN_RANGE) ||
5265
8440
        (cur_range->max_flag & NO_MAX_RANGE) ||
5266
 
        (cur_range->min_flag & NEAR_MIN) ||
5267
 
        (cur_range->max_flag & NEAR_MAX))
 
8441
        (cur_range->min_flag & NEAR_MIN) || (cur_range->max_flag & NEAR_MAX))
5268
8442
      return false;
5269
8443
 
5270
 
    uint32_t field_length= cur_part->store_length;
 
8444
    uint field_length= cur_part->store_length;
5271
8445
    if ((cur_range->maybe_null &&
5272
8446
         cur_range->min_value[0] && cur_range->max_value[0]) ||
5273
8447
        !memcmp(cur_range->min_value, cur_range->max_value, field_length))
5297
8471
    field  field that possibly references some key part in index
5298
8472
 
5299
8473
  NOTES
5300
 
    The return value can be used to get a KeyPartInfo pointer by
 
8474
    The return value can be used to get a KEY_PART_INFO pointer by
5301
8475
    part= index->key_part + get_field_keypart(...) - 1;
5302
8476
 
5303
8477
  RETURN
5304
8478
    Positive number which is the consecutive number of the key part, or
5305
8479
    0 if field does not reference any index field.
5306
8480
*/
 
8481
 
5307
8482
static inline uint
5308
 
get_field_keypart(KeyInfo *index, Field *field)
 
8483
get_field_keypart(KEY *index, Field *field)
5309
8484
{
5310
 
  KeyPartInfo *part= NULL;
5311
 
  KeyPartInfo *end= NULL;
 
8485
  KEY_PART_INFO *part, *end;
5312
8486
 
5313
8487
  for (part= index->key_part, end= part + index->key_parts; part < end; part++)
5314
8488
  {
5326
8500
    get_index_range_tree()
5327
8501
    index     [in]  The ID of the index being looked for
5328
8502
    range_tree[in]  Tree of ranges being searched
5329
 
    param     [in]  Parameter from SqlSelect::test_quick_select
5330
 
    param_idx [out] Index in the array Parameter::key that corresponds to 'index'
 
8503
    param     [in]  PARAM from SQL_SELECT::test_quick_select
 
8504
    param_idx [out] Index in the array PARAM::key that corresponds to 'index'
5331
8505
 
5332
8506
  DESCRIPTION
5333
8507
 
5334
 
    A optimizer::SEL_TREE contains range trees for all usable indexes. This procedure
5335
 
    finds the SEL_ARG sub-tree for 'index'. The members of a optimizer::SEL_TREE are
5336
 
    ordered in the same way as the members of Parameter::key, thus we first find
5337
 
    the corresponding index in the array Parameter::key. This index is returned
 
8508
    A SEL_TREE contains range trees for all usable indexes. This procedure
 
8509
    finds the SEL_ARG sub-tree for 'index'. The members of a SEL_TREE are
 
8510
    ordered in the same way as the members of PARAM::key, thus we first find
 
8511
    the corresponding index in the array PARAM::key. This index is returned
5338
8512
    through the variable param_idx, to be used later as argument of
5339
8513
    check_quick_select().
5340
8514
 
5341
8515
  RETURN
5342
8516
    Pointer to the SEL_ARG subtree that corresponds to index.
5343
8517
*/
5344
 
optimizer::SEL_ARG *get_index_range_tree(uint32_t index,
5345
 
                                         optimizer::SEL_TREE* range_tree,
5346
 
                                         optimizer::Parameter *param,
5347
 
                                         uint32_t *param_idx)
 
8518
 
 
8519
SEL_ARG * get_index_range_tree(uint index, SEL_TREE* range_tree, PARAM *param,
 
8520
                               uint *param_idx)
5348
8521
{
5349
 
  uint32_t idx= 0; /* Index nr in param->key_parts */
 
8522
  uint idx= 0; /* Index nr in param->key_parts */
5350
8523
  while (idx < param->keys)
5351
8524
  {
5352
8525
    if (index == param->real_keynr[idx])
5354
8527
    idx++;
5355
8528
  }
5356
8529
  *param_idx= idx;
5357
 
  return range_tree->keys[idx];
 
8530
  return(range_tree->keys[idx]);
5358
8531
}
5359
8532
 
5360
8533
 
5377
8550
    records             [out] The number of rows retrieved
5378
8551
 
5379
8552
  DESCRIPTION
5380
 
    This method computes the access cost of a GroupMinMaxReadPlan instance and
 
8553
    This method computes the access cost of a TRP_GROUP_MIN_MAX instance and
5381
8554
    the number of rows returned. It updates this->read_cost and this->records.
5382
8555
 
5383
8556
  NOTES
5417
8590
  RETURN
5418
8591
    None
5419
8592
*/
5420
 
void cost_group_min_max(Table* table,
5421
 
                        KeyInfo *index_info,
5422
 
                        uint32_t used_key_parts,
5423
 
                        uint32_t group_key_parts,
5424
 
                        optimizer::SEL_TREE *range_tree,
5425
 
                        optimizer::SEL_ARG *,
 
8593
 
 
8594
void cost_group_min_max(TABLE* table, KEY *index_info, uint used_key_parts,
 
8595
                        uint group_key_parts, SEL_TREE *range_tree,
 
8596
                        SEL_ARG *index_tree __attribute__((unused)),
5426
8597
                        ha_rows quick_prefix_records,
5427
 
                        bool have_min,
5428
 
                        bool have_max,
5429
 
                        double *read_cost,
5430
 
                        ha_rows *records)
 
8598
                        bool have_min, bool have_max,
 
8599
                        double *read_cost, ha_rows *records)
5431
8600
{
5432
8601
  ha_rows table_records;
5433
 
  uint32_t num_groups;
5434
 
  uint32_t num_blocks;
5435
 
  uint32_t keys_per_block;
5436
 
  uint32_t keys_per_group;
5437
 
  uint32_t keys_per_subgroup; /* Average number of keys in sub-groups */
 
8602
  uint num_groups;
 
8603
  uint num_blocks;
 
8604
  uint keys_per_block;
 
8605
  uint keys_per_group;
 
8606
  uint keys_per_subgroup; /* Average number of keys in sub-groups */
5438
8607
                          /* formed by a key infix. */
5439
8608
  double p_overlap; /* Probability that a sub-group overlaps two blocks. */
5440
8609
  double quick_prefix_selectivity;
5441
8610
  double io_cost;
5442
8611
  double cpu_cost= 0; /* TODO: CPU cost of index_read calls? */
5443
8612
 
5444
 
  table_records= table->cursor->stats.records;
5445
 
  keys_per_block= (table->cursor->stats.block_size / 2 /
5446
 
                   (index_info->key_length + table->cursor->ref_length)
 
8613
  table_records= table->file->stats.records;
 
8614
  keys_per_block= (table->file->stats.block_size / 2 /
 
8615
                   (index_info->key_length + table->file->ref_length)
5447
8616
                        + 1);
5448
 
  num_blocks= (uint32_t) (table_records / keys_per_block) + 1;
 
8617
  num_blocks= (uint)(table_records / keys_per_block) + 1;
5449
8618
 
5450
8619
  /* Compute the number of keys in a group. */
5451
8620
  keys_per_group= index_info->rec_per_key[group_key_parts - 1];
5452
8621
  if (keys_per_group == 0) /* If there is no statistics try to guess */
5453
8622
    /* each group contains 10% of all records */
5454
 
    keys_per_group= (uint32_t)(table_records / 10) + 1;
5455
 
  num_groups= (uint32_t)(table_records / keys_per_group) + 1;
 
8623
    keys_per_group= (uint)(table_records / 10) + 1;
 
8624
  num_groups= (uint)(table_records / keys_per_group) + 1;
5456
8625
 
5457
8626
  /* Apply the selectivity of the quick select for group prefixes. */
5458
8627
  if (range_tree && (quick_prefix_records != HA_POS_ERROR))
5459
8628
  {
5460
8629
    quick_prefix_selectivity= (double) quick_prefix_records /
5461
8630
                              (double) table_records;
5462
 
    num_groups= (uint32_t) rint(num_groups * quick_prefix_selectivity);
5463
 
    set_if_bigger(num_groups, 1U);
 
8631
    num_groups= (uint) rint(num_groups * quick_prefix_selectivity);
 
8632
    set_if_bigger(num_groups, 1);
5464
8633
  }
5465
8634
 
5466
8635
  if (used_key_parts > group_key_parts)
5477
8646
      p_overlap= (blocks_per_group * (keys_per_subgroup - 1)) / keys_per_group;
5478
8647
      p_overlap= min(p_overlap, 1.0);
5479
8648
    }
5480
 
    io_cost= (double) min(num_groups * (1 + p_overlap), (double)num_blocks);
 
8649
    io_cost= (double) min(num_groups * (1 + p_overlap), num_blocks);
5481
8650
  }
5482
8651
  else
5483
8652
    io_cost= (keys_per_group > keys_per_block) ?
5488
8657
  /*
5489
8658
    TODO: If there is no WHERE clause and no other expressions, there should be
5490
8659
    no CPU cost. We leave it here to make this cost comparable to that of index
5491
 
    scan as computed in SqlSelect::test_quick_select().
 
8660
    scan as computed in SQL_SELECT::test_quick_select().
5492
8661
  */
5493
8662
  cpu_cost= (double) num_groups / TIME_FOR_COMPARE;
5494
8663
 
5495
8664
  *read_cost= io_cost + cpu_cost;
5496
8665
  *records= num_groups;
 
8666
  return;
5497
8667
}
5498
8668
 
5499
8669
 
5501
8671
  Construct a new quick select object for queries with group by with min/max.
5502
8672
 
5503
8673
  SYNOPSIS
5504
 
    GroupMinMaxReadPlan::make_quick()
 
8674
    TRP_GROUP_MIN_MAX::make_quick()
5505
8675
    param              Parameter from test_quick_select
5506
8676
    retrieve_full_rows ignored
5507
8677
    parent_alloc       Memory pool to use, if any.
5508
8678
 
5509
8679
  NOTES
5510
8680
    Make_quick ignores the retrieve_full_rows parameter because
5511
 
    QuickGroupMinMaxSelect always performs 'index only' scans.
 
8681
    QUICK_GROUP_MIN_MAX_SELECT always performs 'index only' scans.
5512
8682
    The other parameter are ignored as well because all necessary
5513
8683
    data to create the QUICK object is computed at this TRP creation
5514
8684
    time.
5515
8685
 
5516
8686
  RETURN
5517
 
    New QuickGroupMinMaxSelect object if successfully created,
 
8687
    New QUICK_GROUP_MIN_MAX_SELECT object if successfully created,
5518
8688
    NULL otherwise.
5519
8689
*/
5520
 
optimizer::QuickSelectInterface *
5521
 
optimizer::GroupMinMaxReadPlan::make_quick(optimizer::Parameter *param, bool, memory::Root *parent_alloc)
 
8690
 
 
8691
QUICK_SELECT_I *
 
8692
TRP_GROUP_MIN_MAX::make_quick(PARAM *param,
 
8693
                              bool retrieve_full_rows __attribute__((unused)),
 
8694
                              MEM_ROOT *parent_alloc)
5522
8695
{
5523
 
  optimizer::QuickGroupMinMaxSelect *quick= NULL;
 
8696
  QUICK_GROUP_MIN_MAX_SELECT *quick;
5524
8697
 
5525
 
  quick= new optimizer::QuickGroupMinMaxSelect(param->table,
5526
 
                                               param->session->lex->current_select->join,
5527
 
                                               have_min,
5528
 
                                               have_max,
5529
 
                                               min_max_arg_part,
5530
 
                                               group_prefix_len,
5531
 
                                               group_key_parts,
5532
 
                                               used_key_parts,
5533
 
                                               index_info,
5534
 
                                               index,
5535
 
                                               read_cost,
5536
 
                                               records,
5537
 
                                               key_infix_len,
5538
 
                                               key_infix,
5539
 
                                               parent_alloc);
5540
 
  if (! quick)
5541
 
  {
5542
 
    return NULL;
5543
 
  }
 
8698
  quick= new QUICK_GROUP_MIN_MAX_SELECT(param->table,
 
8699
                                        param->thd->lex->current_select->join,
 
8700
                                        have_min, have_max, min_max_arg_part,
 
8701
                                        group_prefix_len, group_key_parts,
 
8702
                                        used_key_parts, index_info, index,
 
8703
                                        read_cost, records, key_infix_len,
 
8704
                                        key_infix, parent_alloc);
 
8705
  if (!quick)
 
8706
    return(NULL);
5544
8707
 
5545
8708
  if (quick->init())
5546
8709
  {
5547
8710
    delete quick;
5548
 
    return NULL;
 
8711
    return(NULL);
5549
8712
  }
5550
8713
 
5551
8714
  if (range_tree)
5552
8715
  {
5553
8716
    assert(quick_prefix_records > 0);
5554
8717
    if (quick_prefix_records == HA_POS_ERROR)
5555
 
    {
5556
8718
      quick->quick_prefix_select= NULL; /* Can't construct a quick select. */
5557
 
    }
5558
8719
    else
5559
 
    {
5560
 
      /* Make a QuickRangeSelect to be used for group prefix retrieval. */
5561
 
      quick->quick_prefix_select= optimizer::get_quick_select(param,
5562
 
                                                              param_idx,
5563
 
                                                              index_tree,
5564
 
                                                              HA_MRR_USE_DEFAULT_IMPL,
5565
 
                                                              0,
5566
 
                                                              &quick->alloc);
5567
 
    }
 
8720
      /* Make a QUICK_RANGE_SELECT to be used for group prefix retrieval. */
 
8721
      quick->quick_prefix_select= get_quick_select(param, param_idx,
 
8722
                                                   index_tree,
 
8723
                                                   HA_MRR_USE_DEFAULT_IMPL, 0,
 
8724
                                                   &quick->alloc);
5568
8725
 
5569
8726
    /*
5570
8727
      Extract the SEL_ARG subtree that contains only ranges for the MIN/MAX
5571
 
      attribute, and create an array of QuickRanges to be used by the
 
8728
      attribute, and create an array of QUICK_RANGES to be used by the
5572
8729
      new quick select.
5573
8730
    */
5574
8731
    if (min_max_arg_part)
5575
8732
    {
5576
 
      optimizer::SEL_ARG *min_max_range= index_tree;
 
8733
      SEL_ARG *min_max_range= index_tree;
5577
8734
      while (min_max_range) /* Find the tree for the MIN/MAX key part. */
5578
8735
      {
5579
8736
        if (min_max_range->field->eq(min_max_arg_part->field))
5583
8740
      /* Scroll to the leftmost interval for the MIN/MAX argument. */
5584
8741
      while (min_max_range && min_max_range->prev)
5585
8742
        min_max_range= min_max_range->prev;
5586
 
      /* Create an array of QuickRanges for the MIN/MAX argument. */
 
8743
      /* Create an array of QUICK_RANGEs for the MIN/MAX argument. */
5587
8744
      while (min_max_range)
5588
8745
      {
5589
8746
        if (quick->add_range(min_max_range))
5590
8747
        {
5591
8748
          delete quick;
5592
8749
          quick= NULL;
5593
 
          return NULL;
 
8750
          return(NULL);
5594
8751
        }
5595
8752
        min_max_range= min_max_range->next;
5596
8753
      }
5602
8759
  quick->update_key_stat();
5603
8760
  quick->adjust_prefix_ranges();
5604
8761
 
5605
 
  return quick;
5606
 
}
5607
 
 
5608
 
 
5609
 
optimizer::QuickSelectInterface *optimizer::RangeReadPlan::make_quick(optimizer::Parameter *param, bool, memory::Root *parent_alloc)
5610
 
{
5611
 
  optimizer::QuickRangeSelect *quick= NULL;
5612
 
  if ((quick= optimizer::get_quick_select(param,
5613
 
                                          key_idx,
5614
 
                                          key,
5615
 
                                          mrr_flags,
5616
 
                                          mrr_buf_size,
5617
 
                                          parent_alloc)))
5618
 
  {
5619
 
    quick->records= records;
5620
 
    quick->read_time= read_cost;
5621
 
  }
5622
 
  return quick;
5623
 
}
5624
 
 
5625
 
 
5626
 
} /* namespace drizzled */
 
8762
  return(quick);
 
8763
}
 
8764
 
 
8765
 
 
8766
/*
 
8767
  Construct new quick select for group queries with min/max.
 
8768
 
 
8769
  SYNOPSIS
 
8770
    QUICK_GROUP_MIN_MAX_SELECT::QUICK_GROUP_MIN_MAX_SELECT()
 
8771
    table             The table being accessed
 
8772
    join              Descriptor of the current query
 
8773
    have_min          true if the query selects a MIN function
 
8774
    have_max          true if the query selects a MAX function
 
8775
    min_max_arg_part  The only argument field of all MIN/MAX functions
 
8776
    group_prefix_len  Length of all key parts in the group prefix
 
8777
    prefix_key_parts  All key parts in the group prefix
 
8778
    index_info        The index chosen for data access
 
8779
    use_index         The id of index_info
 
8780
    read_cost         Cost of this access method
 
8781
    records           Number of records returned
 
8782
    key_infix_len     Length of the key infix appended to the group prefix
 
8783
    key_infix         Infix of constants from equality predicates
 
8784
    parent_alloc      Memory pool for this and quick_prefix_select data
 
8785
 
 
8786
  RETURN
 
8787
    None
 
8788
*/
 
8789
 
 
8790
QUICK_GROUP_MIN_MAX_SELECT::
 
8791
QUICK_GROUP_MIN_MAX_SELECT(TABLE *table, JOIN *join_arg, bool have_min_arg,
 
8792
                           bool have_max_arg,
 
8793
                           KEY_PART_INFO *min_max_arg_part_arg,
 
8794
                           uint group_prefix_len_arg, uint group_key_parts_arg,
 
8795
                           uint used_key_parts_arg, KEY *index_info_arg,
 
8796
                           uint use_index, double read_cost_arg,
 
8797
                           ha_rows records_arg, uint key_infix_len_arg,
 
8798
                           uchar *key_infix_arg, MEM_ROOT *parent_alloc)
 
8799
  :join(join_arg), index_info(index_info_arg),
 
8800
   group_prefix_len(group_prefix_len_arg),
 
8801
   group_key_parts(group_key_parts_arg), have_min(have_min_arg),
 
8802
   have_max(have_max_arg), seen_first_key(false),
 
8803
   min_max_arg_part(min_max_arg_part_arg), key_infix(key_infix_arg),
 
8804
   key_infix_len(key_infix_len_arg), min_functions_it(NULL),
 
8805
   max_functions_it(NULL)
 
8806
{
 
8807
  head=       table;
 
8808
  file=       head->file;
 
8809
  index=      use_index;
 
8810
  record=     head->record[0];
 
8811
  tmp_record= head->record[1];
 
8812
  read_time= read_cost_arg;
 
8813
  records= records_arg;
 
8814
  used_key_parts= used_key_parts_arg;
 
8815
  real_key_parts= used_key_parts_arg;
 
8816
  real_prefix_len= group_prefix_len + key_infix_len;
 
8817
  group_prefix= NULL;
 
8818
  min_max_arg_len= min_max_arg_part ? min_max_arg_part->store_length : 0;
 
8819
 
 
8820
  /*
 
8821
    We can't have parent_alloc set as the init function can't handle this case
 
8822
    yet.
 
8823
  */
 
8824
  assert(!parent_alloc);
 
8825
  if (!parent_alloc)
 
8826
  {
 
8827
    init_sql_alloc(&alloc, join->thd->variables.range_alloc_block_size, 0);
 
8828
    join->thd->mem_root= &alloc;
 
8829
  }
 
8830
  else
 
8831
    memset(&alloc, 0, sizeof(MEM_ROOT));  // ensure that it's not used
 
8832
}
 
8833
 
 
8834
 
 
8835
/*
 
8836
  Do post-constructor initialization.
 
8837
 
 
8838
  SYNOPSIS
 
8839
    QUICK_GROUP_MIN_MAX_SELECT::init()
 
8840
  
 
8841
  DESCRIPTION
 
8842
    The method performs initialization that cannot be done in the constructor
 
8843
    such as memory allocations that may fail. It allocates memory for the
 
8844
    group prefix and inifix buffers, and for the lists of MIN/MAX item to be
 
8845
    updated during execution.
 
8846
 
 
8847
  RETURN
 
8848
    0      OK
 
8849
    other  Error code
 
8850
*/
 
8851
 
 
8852
int QUICK_GROUP_MIN_MAX_SELECT::init()
 
8853
{
 
8854
  if (group_prefix) /* Already initialized. */
 
8855
    return 0;
 
8856
 
 
8857
  if (!(last_prefix= (uchar*) alloc_root(&alloc, group_prefix_len)))
 
8858
      return 1;
 
8859
  /*
 
8860
    We may use group_prefix to store keys with all select fields, so allocate
 
8861
    enough space for it.
 
8862
  */
 
8863
  if (!(group_prefix= (uchar*) alloc_root(&alloc,
 
8864
                                         real_prefix_len + min_max_arg_len)))
 
8865
    return 1;
 
8866
 
 
8867
  if (key_infix_len > 0)
 
8868
  {
 
8869
    /*
 
8870
      The memory location pointed to by key_infix will be deleted soon, so
 
8871
      allocate a new buffer and copy the key_infix into it.
 
8872
    */
 
8873
    uchar *tmp_key_infix= (uchar*) alloc_root(&alloc, key_infix_len);
 
8874
    if (!tmp_key_infix)
 
8875
      return 1;
 
8876
    memcpy(tmp_key_infix, this->key_infix, key_infix_len);
 
8877
    this->key_infix= tmp_key_infix;
 
8878
  }
 
8879
 
 
8880
  if (min_max_arg_part)
 
8881
  {
 
8882
    if (my_init_dynamic_array(&min_max_ranges, sizeof(QUICK_RANGE*), 16, 16))
 
8883
      return 1;
 
8884
 
 
8885
    if (have_min)
 
8886
    {
 
8887
      if (!(min_functions= new List<Item_sum>))
 
8888
        return 1;
 
8889
    }
 
8890
    else
 
8891
      min_functions= NULL;
 
8892
    if (have_max)
 
8893
    {
 
8894
      if (!(max_functions= new List<Item_sum>))
 
8895
        return 1;
 
8896
    }
 
8897
    else
 
8898
      max_functions= NULL;
 
8899
 
 
8900
    Item_sum *min_max_item;
 
8901
    Item_sum **func_ptr= join->sum_funcs;
 
8902
    while ((min_max_item= *(func_ptr++)))
 
8903
    {
 
8904
      if (have_min && (min_max_item->sum_func() == Item_sum::MIN_FUNC))
 
8905
        min_functions->push_back(min_max_item);
 
8906
      else if (have_max && (min_max_item->sum_func() == Item_sum::MAX_FUNC))
 
8907
        max_functions->push_back(min_max_item);
 
8908
    }
 
8909
 
 
8910
    if (have_min)
 
8911
    {
 
8912
      if (!(min_functions_it= new List_iterator<Item_sum>(*min_functions)))
 
8913
        return 1;
 
8914
    }
 
8915
 
 
8916
    if (have_max)
 
8917
    {
 
8918
      if (!(max_functions_it= new List_iterator<Item_sum>(*max_functions)))
 
8919
        return 1;
 
8920
    }
 
8921
  }
 
8922
  else
 
8923
    min_max_ranges.elements= 0;
 
8924
 
 
8925
  return 0;
 
8926
}
 
8927
 
 
8928
 
 
8929
QUICK_GROUP_MIN_MAX_SELECT::~QUICK_GROUP_MIN_MAX_SELECT()
 
8930
{
 
8931
  if (file->inited != handler::NONE) 
 
8932
    file->ha_index_end();
 
8933
  if (min_max_arg_part)
 
8934
    delete_dynamic(&min_max_ranges);
 
8935
  free_root(&alloc,MYF(0));
 
8936
  delete min_functions_it;
 
8937
  delete max_functions_it;
 
8938
  delete quick_prefix_select;
 
8939
  return; 
 
8940
}
 
8941
 
 
8942
 
 
8943
/*
 
8944
  Eventually create and add a new quick range object.
 
8945
 
 
8946
  SYNOPSIS
 
8947
    QUICK_GROUP_MIN_MAX_SELECT::add_range()
 
8948
    sel_range  Range object from which a 
 
8949
 
 
8950
  NOTES
 
8951
    Construct a new QUICK_RANGE object from a SEL_ARG object, and
 
8952
    add it to the array min_max_ranges. If sel_arg is an infinite
 
8953
    range, e.g. (x < 5 or x > 4), then skip it and do not construct
 
8954
    a quick range.
 
8955
 
 
8956
  RETURN
 
8957
    false on success
 
8958
    true  otherwise
 
8959
*/
 
8960
 
 
8961
bool QUICK_GROUP_MIN_MAX_SELECT::add_range(SEL_ARG *sel_range)
 
8962
{
 
8963
  QUICK_RANGE *range;
 
8964
  uint range_flag= sel_range->min_flag | sel_range->max_flag;
 
8965
 
 
8966
  /* Skip (-inf,+inf) ranges, e.g. (x < 5 or x > 4). */
 
8967
  if ((range_flag & NO_MIN_RANGE) && (range_flag & NO_MAX_RANGE))
 
8968
    return false;
 
8969
 
 
8970
  if (!(sel_range->min_flag & NO_MIN_RANGE) &&
 
8971
      !(sel_range->max_flag & NO_MAX_RANGE))
 
8972
  {
 
8973
    if (sel_range->maybe_null &&
 
8974
        sel_range->min_value[0] && sel_range->max_value[0])
 
8975
      range_flag|= NULL_RANGE; /* IS NULL condition */
 
8976
    else if (memcmp(sel_range->min_value, sel_range->max_value,
 
8977
                    min_max_arg_len) == 0)
 
8978
      range_flag|= EQ_RANGE;  /* equality condition */
 
8979
  }
 
8980
  range= new QUICK_RANGE(sel_range->min_value, min_max_arg_len,
 
8981
                         make_keypart_map(sel_range->part),
 
8982
                         sel_range->max_value, min_max_arg_len,
 
8983
                         make_keypart_map(sel_range->part),
 
8984
                         range_flag);
 
8985
  if (!range)
 
8986
    return true;
 
8987
  if (insert_dynamic(&min_max_ranges, (uchar*)&range))
 
8988
    return true;
 
8989
  return false;
 
8990
}
 
8991
 
 
8992
 
 
8993
/*
 
8994
  Opens the ranges if there are more conditions in quick_prefix_select than
 
8995
  the ones used for jumping through the prefixes.
 
8996
 
 
8997
  SYNOPSIS
 
8998
    QUICK_GROUP_MIN_MAX_SELECT::adjust_prefix_ranges()
 
8999
 
 
9000
  NOTES
 
9001
    quick_prefix_select is made over the conditions on the whole key.
 
9002
    It defines a number of ranges of length x. 
 
9003
    However when jumping through the prefixes we use only the the first 
 
9004
    few most significant keyparts in the range key. However if there
 
9005
    are more keyparts to follow the ones we are using we must make the 
 
9006
    condition on the key inclusive (because x < "ab" means 
 
9007
    x[0] < 'a' OR (x[0] == 'a' AND x[1] < 'b').
 
9008
    To achive the above we must turn off the NEAR_MIN/NEAR_MAX
 
9009
*/
 
9010
void QUICK_GROUP_MIN_MAX_SELECT::adjust_prefix_ranges ()
 
9011
{
 
9012
  if (quick_prefix_select &&
 
9013
      group_prefix_len < quick_prefix_select->max_used_key_length)
 
9014
  {
 
9015
    DYNAMIC_ARRAY *arr;
 
9016
    uint inx;
 
9017
 
 
9018
    for (inx= 0, arr= &quick_prefix_select->ranges; inx < arr->elements; inx++)
 
9019
    {
 
9020
      QUICK_RANGE *range;
 
9021
 
 
9022
      get_dynamic(arr, (uchar*)&range, inx);
 
9023
      range->flag &= ~(NEAR_MIN | NEAR_MAX);
 
9024
    }
 
9025
  }
 
9026
}
 
9027
 
 
9028
 
 
9029
/*
 
9030
  Determine the total number and length of the keys that will be used for
 
9031
  index lookup.
 
9032
 
 
9033
  SYNOPSIS
 
9034
    QUICK_GROUP_MIN_MAX_SELECT::update_key_stat()
 
9035
 
 
9036
  DESCRIPTION
 
9037
    The total length of the keys used for index lookup depends on whether
 
9038
    there are any predicates referencing the min/max argument, and/or if
 
9039
    the min/max argument field can be NULL.
 
9040
    This function does an optimistic analysis whether the search key might
 
9041
    be extended by a constant for the min/max keypart. It is 'optimistic'
 
9042
    because during actual execution it may happen that a particular range
 
9043
    is skipped, and then a shorter key will be used. However this is data
 
9044
    dependent and can't be easily estimated here.
 
9045
 
 
9046
  RETURN
 
9047
    None
 
9048
*/
 
9049
 
 
9050
void QUICK_GROUP_MIN_MAX_SELECT::update_key_stat()
 
9051
{
 
9052
  max_used_key_length= real_prefix_len;
 
9053
  if (min_max_ranges.elements > 0)
 
9054
  {
 
9055
    QUICK_RANGE *cur_range;
 
9056
    if (have_min)
 
9057
    { /* Check if the right-most range has a lower boundary. */
 
9058
      get_dynamic(&min_max_ranges, (uchar*)&cur_range,
 
9059
                  min_max_ranges.elements - 1);
 
9060
      if (!(cur_range->flag & NO_MIN_RANGE))
 
9061
      {
 
9062
        max_used_key_length+= min_max_arg_len;
 
9063
        used_key_parts++;
 
9064
        return;
 
9065
      }
 
9066
    }
 
9067
    if (have_max)
 
9068
    { /* Check if the left-most range has an upper boundary. */
 
9069
      get_dynamic(&min_max_ranges, (uchar*)&cur_range, 0);
 
9070
      if (!(cur_range->flag & NO_MAX_RANGE))
 
9071
      {
 
9072
        max_used_key_length+= min_max_arg_len;
 
9073
        used_key_parts++;
 
9074
        return;
 
9075
      }
 
9076
    }
 
9077
  }
 
9078
  else if (have_min && min_max_arg_part &&
 
9079
           min_max_arg_part->field->real_maybe_null())
 
9080
  {
 
9081
    /*
 
9082
      If a MIN/MAX argument value is NULL, we can quickly determine
 
9083
      that we're in the beginning of the next group, because NULLs
 
9084
      are always < any other value. This allows us to quickly
 
9085
      determine the end of the current group and jump to the next
 
9086
      group (see next_min()) and thus effectively increases the
 
9087
      usable key length.
 
9088
    */
 
9089
    max_used_key_length+= min_max_arg_len;
 
9090
    used_key_parts++;
 
9091
  }
 
9092
}
 
9093
 
 
9094
 
 
9095
/*
 
9096
  Initialize a quick group min/max select for key retrieval.
 
9097
 
 
9098
  SYNOPSIS
 
9099
    QUICK_GROUP_MIN_MAX_SELECT::reset()
 
9100
 
 
9101
  DESCRIPTION
 
9102
    Initialize the index chosen for access and find and store the prefix
 
9103
    of the last group. The method is expensive since it performs disk access.
 
9104
 
 
9105
  RETURN
 
9106
    0      OK
 
9107
    other  Error code
 
9108
*/
 
9109
 
 
9110
int QUICK_GROUP_MIN_MAX_SELECT::reset(void)
 
9111
{
 
9112
  int result;
 
9113
 
 
9114
  file->extra(HA_EXTRA_KEYREAD); /* We need only the key attributes */
 
9115
  if ((result= file->ha_index_init(index,1)))
 
9116
    return(result);
 
9117
  if (quick_prefix_select && quick_prefix_select->reset())
 
9118
    return(1);
 
9119
  result= file->index_last(record);
 
9120
  if (result == HA_ERR_END_OF_FILE)
 
9121
    return(0);
 
9122
  /* Save the prefix of the last group. */
 
9123
  key_copy(last_prefix, record, index_info, group_prefix_len);
 
9124
 
 
9125
  return(0);
 
9126
}
 
9127
 
 
9128
 
 
9129
 
 
9130
/* 
 
9131
  Get the next key containing the MIN and/or MAX key for the next group.
 
9132
 
 
9133
  SYNOPSIS
 
9134
    QUICK_GROUP_MIN_MAX_SELECT::get_next()
 
9135
 
 
9136
  DESCRIPTION
 
9137
    The method finds the next subsequent group of records that satisfies the
 
9138
    query conditions and finds the keys that contain the MIN/MAX values for
 
9139
    the key part referenced by the MIN/MAX function(s). Once a group and its
 
9140
    MIN/MAX values are found, store these values in the Item_sum objects for
 
9141
    the MIN/MAX functions. The rest of the values in the result row are stored
 
9142
    in the Item_field::result_field of each select field. If the query does
 
9143
    not contain MIN and/or MAX functions, then the function only finds the
 
9144
    group prefix, which is a query answer itself.
 
9145
 
 
9146
  NOTES
 
9147
    If both MIN and MAX are computed, then we use the fact that if there is
 
9148
    no MIN key, there can't be a MAX key as well, so we can skip looking
 
9149
    for a MAX key in this case.
 
9150
 
 
9151
  RETURN
 
9152
    0                  on success
 
9153
    HA_ERR_END_OF_FILE if returned all keys
 
9154
    other              if some error occurred
 
9155
*/
 
9156
 
 
9157
int QUICK_GROUP_MIN_MAX_SELECT::get_next()
 
9158
{
 
9159
  int min_res= 0;
 
9160
  int max_res= 0;
 
9161
  int result;
 
9162
  int is_last_prefix= 0;
 
9163
 
 
9164
  /*
 
9165
    Loop until a group is found that satisfies all query conditions or the last
 
9166
    group is reached.
 
9167
  */
 
9168
  do
 
9169
  {
 
9170
    result= next_prefix();
 
9171
    /*
 
9172
      Check if this is the last group prefix. Notice that at this point
 
9173
      this->record contains the current prefix in record format.
 
9174
    */
 
9175
    if (!result)
 
9176
    {
 
9177
      is_last_prefix= key_cmp(index_info->key_part, last_prefix,
 
9178
                              group_prefix_len);
 
9179
      assert(is_last_prefix <= 0);
 
9180
    }
 
9181
    else 
 
9182
    {
 
9183
      if (result == HA_ERR_KEY_NOT_FOUND)
 
9184
        continue;
 
9185
      break;
 
9186
    }
 
9187
 
 
9188
    if (have_min)
 
9189
    {
 
9190
      min_res= next_min();
 
9191
      if (min_res == 0)
 
9192
        update_min_result();
 
9193
    }
 
9194
    /* If there is no MIN in the group, there is no MAX either. */
 
9195
    if ((have_max && !have_min) ||
 
9196
        (have_max && have_min && (min_res == 0)))
 
9197
    {
 
9198
      max_res= next_max();
 
9199
      if (max_res == 0)
 
9200
        update_max_result();
 
9201
      /* If a MIN was found, a MAX must have been found as well. */
 
9202
      assert((have_max && !have_min) ||
 
9203
                  (have_max && have_min && (max_res == 0)));
 
9204
    }
 
9205
    /*
 
9206
      If this is just a GROUP BY or DISTINCT without MIN or MAX and there
 
9207
      are equality predicates for the key parts after the group, find the
 
9208
      first sub-group with the extended prefix.
 
9209
    */
 
9210
    if (!have_min && !have_max && key_infix_len > 0)
 
9211
      result= file->index_read_map(record, group_prefix,
 
9212
                                   make_prev_keypart_map(real_key_parts),
 
9213
                                   HA_READ_KEY_EXACT);
 
9214
 
 
9215
    result= have_min ? min_res : have_max ? max_res : result;
 
9216
  } while ((result == HA_ERR_KEY_NOT_FOUND || result == HA_ERR_END_OF_FILE) &&
 
9217
           is_last_prefix != 0);
 
9218
 
 
9219
  if (result == 0)
 
9220
  {
 
9221
    /*
 
9222
      Partially mimic the behavior of end_select_send. Copy the
 
9223
      field data from Item_field::field into Item_field::result_field
 
9224
      of each non-aggregated field (the group fields, and optionally
 
9225
      other fields in non-ANSI SQL mode).
 
9226
    */
 
9227
    copy_fields(&join->tmp_table_param);
 
9228
  }
 
9229
  else if (result == HA_ERR_KEY_NOT_FOUND)
 
9230
    result= HA_ERR_END_OF_FILE;
 
9231
 
 
9232
  return(result);
 
9233
}
 
9234
 
 
9235
 
 
9236
/*
 
9237
  Retrieve the minimal key in the next group.
 
9238
 
 
9239
  SYNOPSIS
 
9240
    QUICK_GROUP_MIN_MAX_SELECT::next_min()
 
9241
 
 
9242
  DESCRIPTION
 
9243
    Find the minimal key within this group such that the key satisfies the query
 
9244
    conditions and NULL semantics. The found key is loaded into this->record.
 
9245
 
 
9246
  IMPLEMENTATION
 
9247
    Depending on the values of min_max_ranges.elements, key_infix_len, and
 
9248
    whether there is a  NULL in the MIN field, this function may directly
 
9249
    return without any data access. In this case we use the key loaded into
 
9250
    this->record by the call to this->next_prefix() just before this call.
 
9251
 
 
9252
  RETURN
 
9253
    0                    on success
 
9254
    HA_ERR_KEY_NOT_FOUND if no MIN key was found that fulfills all conditions.
 
9255
    HA_ERR_END_OF_FILE   - "" -
 
9256
    other                if some error occurred
 
9257
*/
 
9258
 
 
9259
int QUICK_GROUP_MIN_MAX_SELECT::next_min()
 
9260
{
 
9261
  int result= 0;
 
9262
 
 
9263
  /* Find the MIN key using the eventually extended group prefix. */
 
9264
  if (min_max_ranges.elements > 0)
 
9265
  {
 
9266
    if ((result= next_min_in_range()))
 
9267
      return(result);
 
9268
  }
 
9269
  else
 
9270
  {
 
9271
    /* Apply the constant equality conditions to the non-group select fields */
 
9272
    if (key_infix_len > 0)
 
9273
    {
 
9274
      if ((result= file->index_read_map(record, group_prefix,
 
9275
                                        make_prev_keypart_map(real_key_parts),
 
9276
                                        HA_READ_KEY_EXACT)))
 
9277
        return(result);
 
9278
    }
 
9279
 
 
9280
    /*
 
9281
      If the min/max argument field is NULL, skip subsequent rows in the same
 
9282
      group with NULL in it. Notice that:
 
9283
      - if the first row in a group doesn't have a NULL in the field, no row
 
9284
      in the same group has (because NULL < any other value),
 
9285
      - min_max_arg_part->field->ptr points to some place in 'record'.
 
9286
    */
 
9287
    if (min_max_arg_part && min_max_arg_part->field->is_null())
 
9288
    {
 
9289
      /* Find the first subsequent record without NULL in the MIN/MAX field. */
 
9290
      key_copy(tmp_record, record, index_info, 0);
 
9291
      result= file->index_read_map(record, tmp_record,
 
9292
                                   make_keypart_map(real_key_parts),
 
9293
                                   HA_READ_AFTER_KEY);
 
9294
      /*
 
9295
        Check if the new record belongs to the current group by comparing its
 
9296
        prefix with the group's prefix. If it is from the next group, then the
 
9297
        whole group has NULLs in the MIN/MAX field, so use the first record in
 
9298
        the group as a result.
 
9299
        TODO:
 
9300
        It is possible to reuse this new record as the result candidate for the
 
9301
        next call to next_min(), and to save one lookup in the next call. For
 
9302
        this add a new member 'this->next_group_prefix'.
 
9303
      */
 
9304
      if (!result)
 
9305
      {
 
9306
        if (key_cmp(index_info->key_part, group_prefix, real_prefix_len))
 
9307
          key_restore(record, tmp_record, index_info, 0);
 
9308
      }
 
9309
      else if (result == HA_ERR_KEY_NOT_FOUND || result == HA_ERR_END_OF_FILE)
 
9310
        result= 0; /* There is a result in any case. */
 
9311
    }
 
9312
  }
 
9313
 
 
9314
  /*
 
9315
    If the MIN attribute is non-nullable, this->record already contains the
 
9316
    MIN key in the group, so just return.
 
9317
  */
 
9318
  return(result);
 
9319
}
 
9320
 
 
9321
 
 
9322
/* 
 
9323
  Retrieve the maximal key in the next group.
 
9324
 
 
9325
  SYNOPSIS
 
9326
    QUICK_GROUP_MIN_MAX_SELECT::next_max()
 
9327
 
 
9328
  DESCRIPTION
 
9329
    Lookup the maximal key of the group, and store it into this->record.
 
9330
 
 
9331
  RETURN
 
9332
    0                    on success
 
9333
    HA_ERR_KEY_NOT_FOUND if no MAX key was found that fulfills all conditions.
 
9334
    HA_ERR_END_OF_FILE   - "" -
 
9335
    other                if some error occurred
 
9336
*/
 
9337
 
 
9338
int QUICK_GROUP_MIN_MAX_SELECT::next_max()
 
9339
{
 
9340
  int result;
 
9341
 
 
9342
  /* Get the last key in the (possibly extended) group. */
 
9343
  if (min_max_ranges.elements > 0)
 
9344
    result= next_max_in_range();
 
9345
  else
 
9346
    result= file->index_read_map(record, group_prefix,
 
9347
                                 make_prev_keypart_map(real_key_parts),
 
9348
                                 HA_READ_PREFIX_LAST);
 
9349
  return(result);
 
9350
}
 
9351
 
 
9352
 
 
9353
/*
 
9354
  Determine the prefix of the next group.
 
9355
 
 
9356
  SYNOPSIS
 
9357
    QUICK_GROUP_MIN_MAX_SELECT::next_prefix()
 
9358
 
 
9359
  DESCRIPTION
 
9360
    Determine the prefix of the next group that satisfies the query conditions.
 
9361
    If there is a range condition referencing the group attributes, use a
 
9362
    QUICK_RANGE_SELECT object to retrieve the *first* key that satisfies the
 
9363
    condition. If there is a key infix of constants, append this infix
 
9364
    immediately after the group attributes. The possibly extended prefix is
 
9365
    stored in this->group_prefix. The first key of the found group is stored in
 
9366
    this->record, on which relies this->next_min().
 
9367
 
 
9368
  RETURN
 
9369
    0                    on success
 
9370
    HA_ERR_KEY_NOT_FOUND if there is no key with the formed prefix
 
9371
    HA_ERR_END_OF_FILE   if there are no more keys
 
9372
    other                if some error occurred
 
9373
*/
 
9374
int QUICK_GROUP_MIN_MAX_SELECT::next_prefix()
 
9375
{
 
9376
  int result;
 
9377
 
 
9378
  if (quick_prefix_select)
 
9379
  {
 
9380
    uchar *cur_prefix= seen_first_key ? group_prefix : NULL;
 
9381
    if ((result= quick_prefix_select->get_next_prefix(group_prefix_len,
 
9382
                         make_prev_keypart_map(group_key_parts), cur_prefix)))
 
9383
      return(result);
 
9384
    seen_first_key= true;
 
9385
  }
 
9386
  else
 
9387
  {
 
9388
    if (!seen_first_key)
 
9389
    {
 
9390
      result= file->index_first(record);
 
9391
      if (result)
 
9392
        return(result);
 
9393
      seen_first_key= true;
 
9394
    }
 
9395
    else
 
9396
    {
 
9397
      /* Load the first key in this group into record. */
 
9398
      result= file->index_read_map(record, group_prefix,
 
9399
                                   make_prev_keypart_map(group_key_parts),
 
9400
                                   HA_READ_AFTER_KEY);
 
9401
      if (result)
 
9402
        return(result);
 
9403
    }
 
9404
  }
 
9405
 
 
9406
  /* Save the prefix of this group for subsequent calls. */
 
9407
  key_copy(group_prefix, record, index_info, group_prefix_len);
 
9408
  /* Append key_infix to group_prefix. */
 
9409
  if (key_infix_len > 0)
 
9410
    memcpy(group_prefix + group_prefix_len,
 
9411
           key_infix, key_infix_len);
 
9412
 
 
9413
  return(0);
 
9414
}
 
9415
 
 
9416
 
 
9417
/*
 
9418
  Find the minimal key in a group that satisfies some range conditions for the
 
9419
  min/max argument field.
 
9420
 
 
9421
  SYNOPSIS
 
9422
    QUICK_GROUP_MIN_MAX_SELECT::next_min_in_range()
 
9423
 
 
9424
  DESCRIPTION
 
9425
    Given the sequence of ranges min_max_ranges, find the minimal key that is
 
9426
    in the left-most possible range. If there is no such key, then the current
 
9427
    group does not have a MIN key that satisfies the WHERE clause. If a key is
 
9428
    found, its value is stored in this->record.
 
9429
 
 
9430
  RETURN
 
9431
    0                    on success
 
9432
    HA_ERR_KEY_NOT_FOUND if there is no key with the given prefix in any of
 
9433
                         the ranges
 
9434
    HA_ERR_END_OF_FILE   - "" -
 
9435
    other                if some error
 
9436
*/
 
9437
 
 
9438
int QUICK_GROUP_MIN_MAX_SELECT::next_min_in_range()
 
9439
{
 
9440
  ha_rkey_function find_flag;
 
9441
  key_part_map keypart_map;
 
9442
  QUICK_RANGE *cur_range;
 
9443
  bool found_null= false;
 
9444
  int result= HA_ERR_KEY_NOT_FOUND;
 
9445
 
 
9446
  assert(min_max_ranges.elements > 0);
 
9447
 
 
9448
  for (uint range_idx= 0; range_idx < min_max_ranges.elements; range_idx++)
 
9449
  { /* Search from the left-most range to the right. */
 
9450
    get_dynamic(&min_max_ranges, (uchar*)&cur_range, range_idx);
 
9451
 
 
9452
    /*
 
9453
      If the current value for the min/max argument is bigger than the right
 
9454
      boundary of cur_range, there is no need to check this range.
 
9455
    */
 
9456
    if (range_idx != 0 && !(cur_range->flag & NO_MAX_RANGE) &&
 
9457
        (key_cmp(min_max_arg_part, (const uchar*) cur_range->max_key,
 
9458
                 min_max_arg_len) == 1))
 
9459
      continue;
 
9460
 
 
9461
    if (cur_range->flag & NO_MIN_RANGE)
 
9462
    {
 
9463
      keypart_map= make_prev_keypart_map(real_key_parts);
 
9464
      find_flag= HA_READ_KEY_EXACT;
 
9465
    }
 
9466
    else
 
9467
    {
 
9468
      /* Extend the search key with the lower boundary for this range. */
 
9469
      memcpy(group_prefix + real_prefix_len, cur_range->min_key,
 
9470
             cur_range->min_length);
 
9471
      keypart_map= make_keypart_map(real_key_parts);
 
9472
      find_flag= (cur_range->flag & (EQ_RANGE | NULL_RANGE)) ?
 
9473
                 HA_READ_KEY_EXACT : (cur_range->flag & NEAR_MIN) ?
 
9474
                 HA_READ_AFTER_KEY : HA_READ_KEY_OR_NEXT;
 
9475
    }
 
9476
 
 
9477
    result= file->index_read_map(record, group_prefix, keypart_map, find_flag);
 
9478
    if (result)
 
9479
    {
 
9480
      if ((result == HA_ERR_KEY_NOT_FOUND || result == HA_ERR_END_OF_FILE) &&
 
9481
          (cur_range->flag & (EQ_RANGE | NULL_RANGE)))
 
9482
        continue; /* Check the next range. */
 
9483
 
 
9484
      /*
 
9485
        In all other cases (HA_ERR_*, HA_READ_KEY_EXACT with NO_MIN_RANGE,
 
9486
        HA_READ_AFTER_KEY, HA_READ_KEY_OR_NEXT) if the lookup failed for this
 
9487
        range, it can't succeed for any other subsequent range.
 
9488
      */
 
9489
      break;
 
9490
    }
 
9491
 
 
9492
    /* A key was found. */
 
9493
    if (cur_range->flag & EQ_RANGE)
 
9494
      break; /* No need to perform the checks below for equal keys. */
 
9495
 
 
9496
    if (cur_range->flag & NULL_RANGE)
 
9497
    {
 
9498
      /*
 
9499
        Remember this key, and continue looking for a non-NULL key that
 
9500
        satisfies some other condition.
 
9501
      */
 
9502
      memcpy(tmp_record, record, head->s->rec_buff_length);
 
9503
      found_null= true;
 
9504
      continue;
 
9505
    }
 
9506
 
 
9507
    /* Check if record belongs to the current group. */
 
9508
    if (key_cmp(index_info->key_part, group_prefix, real_prefix_len))
 
9509
    {
 
9510
      result= HA_ERR_KEY_NOT_FOUND;
 
9511
      continue;
 
9512
    }
 
9513
 
 
9514
    /* If there is an upper limit, check if the found key is in the range. */
 
9515
    if ( !(cur_range->flag & NO_MAX_RANGE) )
 
9516
    {
 
9517
      /* Compose the MAX key for the range. */
 
9518
      uchar *max_key= (uchar*) my_alloca(real_prefix_len + min_max_arg_len);
 
9519
      memcpy(max_key, group_prefix, real_prefix_len);
 
9520
      memcpy(max_key + real_prefix_len, cur_range->max_key,
 
9521
             cur_range->max_length);
 
9522
      /* Compare the found key with max_key. */
 
9523
      int cmp_res= key_cmp(index_info->key_part, max_key,
 
9524
                           real_prefix_len + min_max_arg_len);
 
9525
      if ((!((cur_range->flag & NEAR_MAX) && (cmp_res == -1)) || (cmp_res <= 0)))
 
9526
      {
 
9527
        result= HA_ERR_KEY_NOT_FOUND;
 
9528
        continue;
 
9529
      }
 
9530
    }
 
9531
    /* If we got to this point, the current key qualifies as MIN. */
 
9532
    assert(result == 0);
 
9533
    break;
 
9534
  }
 
9535
  /*
 
9536
    If there was a key with NULL in the MIN/MAX field, and there was no other
 
9537
    key without NULL from the same group that satisfies some other condition,
 
9538
    then use the key with the NULL.
 
9539
  */
 
9540
  if (found_null && result)
 
9541
  {
 
9542
    memcpy(record, tmp_record, head->s->rec_buff_length);
 
9543
    result= 0;
 
9544
  }
 
9545
  return result;
 
9546
}
 
9547
 
 
9548
 
 
9549
/*
 
9550
  Find the maximal key in a group that satisfies some range conditions for the
 
9551
  min/max argument field.
 
9552
 
 
9553
  SYNOPSIS
 
9554
    QUICK_GROUP_MIN_MAX_SELECT::next_max_in_range()
 
9555
 
 
9556
  DESCRIPTION
 
9557
    Given the sequence of ranges min_max_ranges, find the maximal key that is
 
9558
    in the right-most possible range. If there is no such key, then the current
 
9559
    group does not have a MAX key that satisfies the WHERE clause. If a key is
 
9560
    found, its value is stored in this->record.
 
9561
 
 
9562
  RETURN
 
9563
    0                    on success
 
9564
    HA_ERR_KEY_NOT_FOUND if there is no key with the given prefix in any of
 
9565
                         the ranges
 
9566
    HA_ERR_END_OF_FILE   - "" -
 
9567
    other                if some error
 
9568
*/
 
9569
 
 
9570
int QUICK_GROUP_MIN_MAX_SELECT::next_max_in_range()
 
9571
{
 
9572
  ha_rkey_function find_flag;
 
9573
  key_part_map keypart_map;
 
9574
  QUICK_RANGE *cur_range;
 
9575
  int result;
 
9576
 
 
9577
  assert(min_max_ranges.elements > 0);
 
9578
 
 
9579
  for (uint range_idx= min_max_ranges.elements; range_idx > 0; range_idx--)
 
9580
  { /* Search from the right-most range to the left. */
 
9581
    get_dynamic(&min_max_ranges, (uchar*)&cur_range, range_idx - 1);
 
9582
 
 
9583
    /*
 
9584
      If the current value for the min/max argument is smaller than the left
 
9585
      boundary of cur_range, there is no need to check this range.
 
9586
    */
 
9587
    if (range_idx != min_max_ranges.elements &&
 
9588
        !(cur_range->flag & NO_MIN_RANGE) &&
 
9589
        (key_cmp(min_max_arg_part, (const uchar*) cur_range->min_key,
 
9590
                 min_max_arg_len) == -1))
 
9591
      continue;
 
9592
 
 
9593
    if (cur_range->flag & NO_MAX_RANGE)
 
9594
    {
 
9595
      keypart_map= make_prev_keypart_map(real_key_parts);
 
9596
      find_flag= HA_READ_PREFIX_LAST;
 
9597
    }
 
9598
    else
 
9599
    {
 
9600
      /* Extend the search key with the upper boundary for this range. */
 
9601
      memcpy(group_prefix + real_prefix_len, cur_range->max_key,
 
9602
             cur_range->max_length);
 
9603
      keypart_map= make_keypart_map(real_key_parts);
 
9604
      find_flag= (cur_range->flag & EQ_RANGE) ?
 
9605
                 HA_READ_KEY_EXACT : (cur_range->flag & NEAR_MAX) ?
 
9606
                 HA_READ_BEFORE_KEY : HA_READ_PREFIX_LAST_OR_PREV;
 
9607
    }
 
9608
 
 
9609
    result= file->index_read_map(record, group_prefix, keypart_map, find_flag);
 
9610
 
 
9611
    if (result)
 
9612
    {
 
9613
      if ((result == HA_ERR_KEY_NOT_FOUND || result == HA_ERR_END_OF_FILE) &&
 
9614
          (cur_range->flag & EQ_RANGE))
 
9615
        continue; /* Check the next range. */
 
9616
 
 
9617
      /*
 
9618
        In no key was found with this upper bound, there certainly are no keys
 
9619
        in the ranges to the left.
 
9620
      */
 
9621
      return result;
 
9622
    }
 
9623
    /* A key was found. */
 
9624
    if (cur_range->flag & EQ_RANGE)
 
9625
      return 0; /* No need to perform the checks below for equal keys. */
 
9626
 
 
9627
    /* Check if record belongs to the current group. */
 
9628
    if (key_cmp(index_info->key_part, group_prefix, real_prefix_len))
 
9629
      continue;                                 // Row not found
 
9630
 
 
9631
    /* If there is a lower limit, check if the found key is in the range. */
 
9632
    if ( !(cur_range->flag & NO_MIN_RANGE) )
 
9633
    {
 
9634
      /* Compose the MIN key for the range. */
 
9635
      uchar *min_key= (uchar*) my_alloca(real_prefix_len + min_max_arg_len);
 
9636
      memcpy(min_key, group_prefix, real_prefix_len);
 
9637
      memcpy(min_key + real_prefix_len, cur_range->min_key,
 
9638
             cur_range->min_length);
 
9639
      /* Compare the found key with min_key. */
 
9640
      int cmp_res= key_cmp(index_info->key_part, min_key,
 
9641
                           real_prefix_len + min_max_arg_len);
 
9642
      if ((!((cur_range->flag & NEAR_MIN) && (cmp_res == 1)) ||
 
9643
            (cmp_res >= 0)))
 
9644
        continue;
 
9645
    }
 
9646
    /* If we got to this point, the current key qualifies as MAX. */
 
9647
    return result;
 
9648
  }
 
9649
  return HA_ERR_KEY_NOT_FOUND;
 
9650
}
 
9651
 
 
9652
 
 
9653
/*
 
9654
  Update all MIN function results with the newly found value.
 
9655
 
 
9656
  SYNOPSIS
 
9657
    QUICK_GROUP_MIN_MAX_SELECT::update_min_result()
 
9658
 
 
9659
  DESCRIPTION
 
9660
    The method iterates through all MIN functions and updates the result value
 
9661
    of each function by calling Item_sum::reset(), which in turn picks the new
 
9662
    result value from this->head->record[0], previously updated by
 
9663
    next_min(). The updated value is stored in a member variable of each of the
 
9664
    Item_sum objects, depending on the value type.
 
9665
 
 
9666
  IMPLEMENTATION
 
9667
    The update must be done separately for MIN and MAX, immediately after
 
9668
    next_min() was called and before next_max() is called, because both MIN and
 
9669
    MAX take their result value from the same buffer this->head->record[0]
 
9670
    (i.e.  this->record).
 
9671
 
 
9672
  RETURN
 
9673
    None
 
9674
*/
 
9675
 
 
9676
void QUICK_GROUP_MIN_MAX_SELECT::update_min_result()
 
9677
{
 
9678
  Item_sum *min_func;
 
9679
 
 
9680
  min_functions_it->rewind();
 
9681
  while ((min_func= (*min_functions_it)++))
 
9682
    min_func->reset();
 
9683
}
 
9684
 
 
9685
 
 
9686
/*
 
9687
  Update all MAX function results with the newly found value.
 
9688
 
 
9689
  SYNOPSIS
 
9690
    QUICK_GROUP_MIN_MAX_SELECT::update_max_result()
 
9691
 
 
9692
  DESCRIPTION
 
9693
    The method iterates through all MAX functions and updates the result value
 
9694
    of each function by calling Item_sum::reset(), which in turn picks the new
 
9695
    result value from this->head->record[0], previously updated by
 
9696
    next_max(). The updated value is stored in a member variable of each of the
 
9697
    Item_sum objects, depending on the value type.
 
9698
 
 
9699
  IMPLEMENTATION
 
9700
    The update must be done separately for MIN and MAX, immediately after
 
9701
    next_max() was called, because both MIN and MAX take their result value
 
9702
    from the same buffer this->head->record[0] (i.e.  this->record).
 
9703
 
 
9704
  RETURN
 
9705
    None
 
9706
*/
 
9707
 
 
9708
void QUICK_GROUP_MIN_MAX_SELECT::update_max_result()
 
9709
{
 
9710
  Item_sum *max_func;
 
9711
 
 
9712
  max_functions_it->rewind();
 
9713
  while ((max_func= (*max_functions_it)++))
 
9714
    max_func->reset();
 
9715
}
 
9716
 
 
9717
 
 
9718
/*
 
9719
  Append comma-separated list of keys this quick select uses to key_names;
 
9720
  append comma-separated list of corresponding used lengths to used_lengths.
 
9721
 
 
9722
  SYNOPSIS
 
9723
    QUICK_GROUP_MIN_MAX_SELECT::add_keys_and_lengths()
 
9724
    key_names    [out] Names of used indexes
 
9725
    used_lengths [out] Corresponding lengths of the index names
 
9726
 
 
9727
  DESCRIPTION
 
9728
    This method is used by select_describe to extract the names of the
 
9729
    indexes used by a quick select.
 
9730
 
 
9731
*/
 
9732
 
 
9733
void QUICK_GROUP_MIN_MAX_SELECT::add_keys_and_lengths(String *key_names,
 
9734
                                                      String *used_lengths)
 
9735
{
 
9736
  char buf[64];
 
9737
  uint length;
 
9738
  key_names->append(index_info->name);
 
9739
  length= int64_t2str(max_used_key_length, buf, 10) - buf;
 
9740
  used_lengths->append(buf, length);
 
9741
}
 
9742
 
 
9743
static void print_sel_tree(PARAM *param, SEL_TREE *tree, key_map *tree_map,
 
9744
                           const char *msg __attribute__((unused)))
 
9745
{
 
9746
  SEL_ARG **key,**end;
 
9747
  int idx;
 
9748
  char buff[1024];
 
9749
 
 
9750
  String tmp(buff,sizeof(buff),&my_charset_bin);
 
9751
  tmp.length(0);
 
9752
  for (idx= 0,key=tree->keys, end=key+param->keys ;
 
9753
       key != end ;
 
9754
       key++,idx++)
 
9755
  {
 
9756
    if (tree_map->is_set(idx))
 
9757
    {
 
9758
      uint keynr= param->real_keynr[idx];
 
9759
      if (tmp.length())
 
9760
        tmp.append(',');
 
9761
      tmp.append(param->table->key_info[keynr].name);
 
9762
    }
 
9763
  }
 
9764
  if (!tmp.length())
 
9765
    tmp.append(STRING_WITH_LEN("(empty)"));
 
9766
 
 
9767
  return;
 
9768
}
 
9769
 
 
9770
 
 
9771
static void print_ror_scans_arr(TABLE *table,
 
9772
                                const char *msg __attribute__((unused)),
 
9773
                                struct st_ror_scan_info **start,
 
9774
                                struct st_ror_scan_info **end)
 
9775
{
 
9776
  char buff[1024];
 
9777
  String tmp(buff,sizeof(buff),&my_charset_bin);
 
9778
  tmp.length(0);
 
9779
  for (;start != end; start++)
 
9780
  {
 
9781
    if (tmp.length())
 
9782
      tmp.append(',');
 
9783
    tmp.append(table->key_info[(*start)->keynr].name);
 
9784
  }
 
9785
  if (!tmp.length())
 
9786
    tmp.append(STRING_WITH_LEN("(empty)"));
 
9787
  return;
 
9788
}
 
9789
 
 
9790
/*****************************************************************************
 
9791
** Instantiate templates 
 
9792
*****************************************************************************/
 
9793
 
 
9794
#ifdef HAVE_EXPLICIT_TEMPLATE_INSTANTIATION
 
9795
template class List<QUICK_RANGE>;
 
9796
template class List_iterator<QUICK_RANGE>;
 
9797
#endif