~drizzle-trunk/drizzle/development

« back to all changes in this revision

Viewing changes to storage/innobase/lock/lock0lock.c

  • Committer: Monty Taylor
  • Date: 2010-12-24 02:13:05 UTC
  • mto: This revision was merged to the branch mainline in revision 2038.
  • Revision ID: mordred@inaugust.com-20101224021305-e3slv1cyjczqorij
Changed the bzrignore file.

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
/******************************************************
2
 
The transaction lock system
3
 
 
4
 
(c) 1996 Innobase Oy
5
 
 
6
 
Created 5/7/1996 Heikki Tuuri
7
 
*******************************************************/
8
 
 
9
 
#define LOCK_MODULE_IMPLEMENTATION
10
 
 
11
 
#include "lock0lock.h"
12
 
#include "lock0priv.h"
13
 
 
14
 
#ifdef UNIV_NONINL
15
 
#include "lock0lock.ic"
16
 
#include "lock0priv.ic"
17
 
#endif
18
 
 
19
 
#include "ha_prototypes.h"
20
 
#include "usr0sess.h"
21
 
#include "trx0purge.h"
22
 
#include "dict0mem.h"
23
 
#include "trx0sys.h"
24
 
 
25
 
/* Restricts the length of search we will do in the waits-for
26
 
graph of transactions */
27
 
#define LOCK_MAX_N_STEPS_IN_DEADLOCK_CHECK 1000000
28
 
 
29
 
/* Restricts the recursion depth of the search we will do in the waits-for
30
 
graph of transactions */
31
 
#define LOCK_MAX_DEPTH_IN_DEADLOCK_CHECK 200
32
 
 
33
 
/* When releasing transaction locks, this specifies how often we release
34
 
the kernel mutex for a moment to give also others access to it */
35
 
 
36
 
#define LOCK_RELEASE_KERNEL_INTERVAL    1000
37
 
 
38
 
/* Safety margin when creating a new record lock: this many extra records
39
 
can be inserted to the page without need to create a lock with a bigger
40
 
bitmap */
41
 
 
42
 
#define LOCK_PAGE_BITMAP_MARGIN         64
43
 
 
44
 
/* An explicit record lock affects both the record and the gap before it.
45
 
An implicit x-lock does not affect the gap, it only locks the index
46
 
record from read or update.
47
 
 
48
 
If a transaction has modified or inserted an index record, then
49
 
it owns an implicit x-lock on the record. On a secondary index record,
50
 
a transaction has an implicit x-lock also if it has modified the
51
 
clustered index record, the max trx id of the page where the secondary
52
 
index record resides is >= trx id of the transaction (or database recovery
53
 
is running), and there are no explicit non-gap lock requests on the
54
 
secondary index record.
55
 
 
56
 
This complicated definition for a secondary index comes from the
57
 
implementation: we want to be able to determine if a secondary index
58
 
record has an implicit x-lock, just by looking at the present clustered
59
 
index record, not at the historical versions of the record. The
60
 
complicated definition can be explained to the user so that there is
61
 
nondeterminism in the access path when a query is answered: we may,
62
 
or may not, access the clustered index record and thus may, or may not,
63
 
bump into an x-lock set there.
64
 
 
65
 
Different transaction can have conflicting locks set on the gap at the
66
 
same time. The locks on the gap are purely inhibitive: an insert cannot
67
 
be made, or a select cursor may have to wait if a different transaction
68
 
has a conflicting lock on the gap. An x-lock on the gap does not give
69
 
the right to insert into the gap.
70
 
 
71
 
An explicit lock can be placed on a user record or the supremum record of
72
 
a page. The locks on the supremum record are always thought to be of the gap
73
 
type, though the gap bit is not set. When we perform an update of a record
74
 
where the size of the record changes, we may temporarily store its explicit
75
 
locks on the infimum record of the page, though the infimum otherwise never
76
 
carries locks.
77
 
 
78
 
A waiting record lock can also be of the gap type. A waiting lock request
79
 
can be granted when there is no conflicting mode lock request by another
80
 
transaction ahead of it in the explicit lock queue.
81
 
 
82
 
In version 4.0.5 we added yet another explicit lock type: LOCK_REC_NOT_GAP.
83
 
It only locks the record it is placed on, not the gap before the record.
84
 
This lock type is necessary to emulate an Oracle-like READ COMMITTED isolation
85
 
level.
86
 
 
87
 
-------------------------------------------------------------------------
88
 
RULE 1: If there is an implicit x-lock on a record, and there are non-gap
89
 
-------
90
 
lock requests waiting in the queue, then the transaction holding the implicit
91
 
x-lock also has an explicit non-gap record x-lock. Therefore, as locks are
92
 
released, we can grant locks to waiting lock requests purely by looking at
93
 
the explicit lock requests in the queue.
94
 
 
95
 
RULE 3: Different transactions cannot have conflicting granted non-gap locks
96
 
-------
97
 
on a record at the same time. However, they can have conflicting granted gap
98
 
locks.
99
 
RULE 4: If a there is a waiting lock request in a queue, no lock request,
100
 
-------
101
 
gap or not, can be inserted ahead of it in the queue. In record deletes
102
 
and page splits new gap type locks can be created by the database manager
103
 
for a transaction, and without rule 4, the waits-for graph of transactions
104
 
might become cyclic without the database noticing it, as the deadlock check
105
 
is only performed when a transaction itself requests a lock!
106
 
-------------------------------------------------------------------------
107
 
 
108
 
An insert is allowed to a gap if there are no explicit lock requests by
109
 
other transactions on the next record. It does not matter if these lock
110
 
requests are granted or waiting, gap bit set or not, with the exception
111
 
that a gap type request set by another transaction to wait for
112
 
its turn to do an insert is ignored. On the other hand, an
113
 
implicit x-lock by another transaction does not prevent an insert, which
114
 
allows for more concurrency when using an Oracle-style sequence number
115
 
generator for the primary key with many transactions doing inserts
116
 
concurrently.
117
 
 
118
 
A modify of a record is allowed if the transaction has an x-lock on the
119
 
record, or if other transactions do not have any non-gap lock requests on the
120
 
record.
121
 
 
122
 
A read of a single user record with a cursor is allowed if the transaction
123
 
has a non-gap explicit, or an implicit lock on the record, or if the other
124
 
transactions have no x-lock requests on the record. At a page supremum a
125
 
read is always allowed.
126
 
 
127
 
In summary, an implicit lock is seen as a granted x-lock only on the
128
 
record, not on the gap. An explicit lock with no gap bit set is a lock
129
 
both on the record and the gap. If the gap bit is set, the lock is only
130
 
on the gap. Different transaction cannot own conflicting locks on the
131
 
record at the same time, but they may own conflicting locks on the gap.
132
 
Granted locks on a record give an access right to the record, but gap type
133
 
locks just inhibit operations.
134
 
 
135
 
NOTE: Finding out if some transaction has an implicit x-lock on a secondary
136
 
index record can be cumbersome. We may have to look at previous versions of
137
 
the corresponding clustered index record to find out if a delete marked
138
 
secondary index record was delete marked by an active transaction, not by
139
 
a committed one.
140
 
 
141
 
FACT A: If a transaction has inserted a row, it can delete it any time
142
 
without need to wait for locks.
143
 
 
144
 
PROOF: The transaction has an implicit x-lock on every index record inserted
145
 
for the row, and can thus modify each record without the need to wait. Q.E.D.
146
 
 
147
 
FACT B: If a transaction has read some result set with a cursor, it can read
148
 
it again, and retrieves the same result set, if it has not modified the
149
 
result set in the meantime. Hence, there is no phantom problem. If the
150
 
biggest record, in the alphabetical order, touched by the cursor is removed,
151
 
a lock wait may occur, otherwise not.
152
 
 
153
 
PROOF: When a read cursor proceeds, it sets an s-lock on each user record
154
 
it passes, and a gap type s-lock on each page supremum. The cursor must
155
 
wait until it has these locks granted. Then no other transaction can
156
 
have a granted x-lock on any of the user records, and therefore cannot
157
 
modify the user records. Neither can any other transaction insert into
158
 
the gaps which were passed over by the cursor. Page splits and merges,
159
 
and removal of obsolete versions of records do not affect this, because
160
 
when a user record or a page supremum is removed, the next record inherits
161
 
its locks as gap type locks, and therefore blocks inserts to the same gap.
162
 
Also, if a page supremum is inserted, it inherits its locks from the successor
163
 
record. When the cursor is positioned again at the start of the result set,
164
 
the records it will touch on its course are either records it touched
165
 
during the last pass or new inserted page supremums. It can immediately
166
 
access all these records, and when it arrives at the biggest record, it
167
 
notices that the result set is complete. If the biggest record was removed,
168
 
lock wait can occur because the next record only inherits a gap type lock,
169
 
and a wait may be needed. Q.E.D. */
170
 
 
171
 
/* If an index record should be changed or a new inserted, we must check
172
 
the lock on the record or the next. When a read cursor starts reading,
173
 
we will set a record level s-lock on each record it passes, except on the
174
 
initial record on which the cursor is positioned before we start to fetch
175
 
records. Our index tree search has the convention that the B-tree
176
 
cursor is positioned BEFORE the first possibly matching record in
177
 
the search. Optimizations are possible here: if the record is searched
178
 
on an equality condition to a unique key, we could actually set a special
179
 
lock on the record, a lock which would not prevent any insert before
180
 
this record. In the next key locking an x-lock set on a record also
181
 
prevents inserts just before that record.
182
 
        There are special infimum and supremum records on each page.
183
 
A supremum record can be locked by a read cursor. This records cannot be
184
 
updated but the lock prevents insert of a user record to the end of
185
 
the page.
186
 
        Next key locks will prevent the phantom problem where new rows
187
 
could appear to SELECT result sets after the select operation has been
188
 
performed. Prevention of phantoms ensures the serilizability of
189
 
transactions.
190
 
        What should we check if an insert of a new record is wanted?
191
 
Only the lock on the next record on the same page, because also the
192
 
supremum record can carry a lock. An s-lock prevents insertion, but
193
 
what about an x-lock? If it was set by a searched update, then there
194
 
is implicitly an s-lock, too, and the insert should be prevented.
195
 
What if our transaction owns an x-lock to the next record, but there is
196
 
a waiting s-lock request on the next record? If this s-lock was placed
197
 
by a read cursor moving in the ascending order in the index, we cannot
198
 
do the insert immediately, because when we finally commit our transaction,
199
 
the read cursor should see also the new inserted record. So we should
200
 
move the read cursor backward from the the next record for it to pass over
201
 
the new inserted record. This move backward may be too cumbersome to
202
 
implement. If we in this situation just enqueue a second x-lock request
203
 
for our transaction on the next record, then the deadlock mechanism
204
 
notices a deadlock between our transaction and the s-lock request
205
 
transaction. This seems to be an ok solution.
206
 
        We could have the convention that granted explicit record locks,
207
 
lock the corresponding records from changing, and also lock the gaps
208
 
before them from inserting. A waiting explicit lock request locks the gap
209
 
before from inserting. Implicit record x-locks, which we derive from the
210
 
transaction id in the clustered index record, only lock the record itself
211
 
from modification, not the gap before it from inserting.
212
 
        How should we store update locks? If the search is done by a unique
213
 
key, we could just modify the record trx id. Otherwise, we could put a record
214
 
x-lock on the record. If the update changes ordering fields of the
215
 
clustered index record, the inserted new record needs no record lock in
216
 
lock table, the trx id is enough. The same holds for a secondary index
217
 
record. Searched delete is similar to update.
218
 
 
219
 
PROBLEM:
220
 
What about waiting lock requests? If a transaction is waiting to make an
221
 
update to a record which another modified, how does the other transaction
222
 
know to send the end-lock-wait signal to the waiting transaction? If we have
223
 
the convention that a transaction may wait for just one lock at a time, how
224
 
do we preserve it if lock wait ends?
225
 
 
226
 
PROBLEM:
227
 
Checking the trx id label of a secondary index record. In the case of a
228
 
modification, not an insert, is this necessary? A secondary index record
229
 
is modified only by setting or resetting its deleted flag. A secondary index
230
 
record contains fields to uniquely determine the corresponding clustered
231
 
index record. A secondary index record is therefore only modified if we
232
 
also modify the clustered index record, and the trx id checking is done
233
 
on the clustered index record, before we come to modify the secondary index
234
 
record. So, in the case of delete marking or unmarking a secondary index
235
 
record, we do not have to care about trx ids, only the locks in the lock
236
 
table must be checked. In the case of a select from a secondary index, the
237
 
trx id is relevant, and in this case we may have to search the clustered
238
 
index record.
239
 
 
240
 
PROBLEM: How to update record locks when page is split or merged, or
241
 
--------------------------------------------------------------------
242
 
a record is deleted or updated?
243
 
If the size of fields in a record changes, we perform the update by
244
 
a delete followed by an insert. How can we retain the locks set or
245
 
waiting on the record? Because a record lock is indexed in the bitmap
246
 
by the heap number of the record, when we remove the record from the
247
 
record list, it is possible still to keep the lock bits. If the page
248
 
is reorganized, we could make a table of old and new heap numbers,
249
 
and permute the bitmaps in the locks accordingly. We can add to the
250
 
table a row telling where the updated record ended. If the update does
251
 
not require a reorganization of the page, we can simply move the lock
252
 
bits for the updated record to the position determined by its new heap
253
 
number (we may have to allocate a new lock, if we run out of the bitmap
254
 
in the old one).
255
 
        A more complicated case is the one where the reinsertion of the
256
 
updated record is done pessimistically, because the structure of the
257
 
tree may change.
258
 
 
259
 
PROBLEM: If a supremum record is removed in a page merge, or a record
260
 
---------------------------------------------------------------------
261
 
removed in a purge, what to do to the waiting lock requests? In a split to
262
 
the right, we just move the lock requests to the new supremum. If a record
263
 
is removed, we could move the waiting lock request to its inheritor, the
264
 
next record in the index. But, the next record may already have lock
265
 
requests on its own queue. A new deadlock check should be made then. Maybe
266
 
it is easier just to release the waiting transactions. They can then enqueue
267
 
new lock requests on appropriate records.
268
 
 
269
 
PROBLEM: When a record is inserted, what locks should it inherit from the
270
 
-------------------------------------------------------------------------
271
 
upper neighbor? An insert of a new supremum record in a page split is
272
 
always possible, but an insert of a new user record requires that the upper
273
 
neighbor does not have any lock requests by other transactions, granted or
274
 
waiting, in its lock queue. Solution: We can copy the locks as gap type
275
 
locks, so that also the waiting locks are transformed to granted gap type
276
 
locks on the inserted record. */
277
 
 
278
 
/* LOCK COMPATIBILITY MATRIX
279
 
 *    IS IX S  X  AI
280
 
 * IS +  +  +  -  +
281
 
 * IX +  +  -  -  +
282
 
 * S  +  -  +  -  -
283
 
 * X  -  -  -  -  -
284
 
 * AI +  +  -  -  -
285
 
 *
286
 
 * Note that for rows, InnoDB only acquires S or X locks.
287
 
 * For tables, InnoDB normally acquires IS or IX locks.
288
 
 * S or X table locks are only acquired for LOCK TABLES.
289
 
 * Auto-increment (AI) locks are needed because of
290
 
 * statement-level MySQL binlog.
291
 
 * See also lock_mode_compatible().
292
 
 */
293
 
#define LK(a,b) (1 << ((a) * LOCK_NUM + (b)))
294
 
#define LKS(a,b) LK(a,b) | LK(b,a)
295
 
 
296
 
/* Define the lock compatibility matrix in a ulint.  The first line below
297
 
defines the diagonal entries.  The following lines define the compatibility
298
 
for LOCK_IX, LOCK_S, and LOCK_AUTO_INC using LKS(), since the matrix
299
 
is symmetric. */
300
 
#define LOCK_MODE_COMPATIBILITY 0                                       \
301
 
 | LK(LOCK_IS, LOCK_IS) | LK(LOCK_IX, LOCK_IX) | LK(LOCK_S, LOCK_S)     \
302
 
 | LKS(LOCK_IX, LOCK_IS) | LKS(LOCK_IS, LOCK_AUTO_INC)                  \
303
 
 | LKS(LOCK_S, LOCK_IS)                                                 \
304
 
 | LKS(LOCK_AUTO_INC, LOCK_IS) | LKS(LOCK_AUTO_INC, LOCK_IX)
305
 
 
306
 
/* STRONGER-OR-EQUAL RELATION (mode1=row, mode2=column)
307
 
 *    IS IX S  X  AI
308
 
 * IS +  -  -  -  -
309
 
 * IX +  +  -  -  -
310
 
 * S  +  -  +  -  -
311
 
 * X  +  +  +  +  +
312
 
 * AI -  -  -  -  +
313
 
 * See lock_mode_stronger_or_eq().
314
 
 */
315
 
 
316
 
/* Define the stronger-or-equal lock relation in a ulint.  This relation
317
 
contains all pairs LK(mode1, mode2) where mode1 is stronger than or
318
 
equal to mode2. */
319
 
#define LOCK_MODE_STRONGER_OR_EQ 0                                      \
320
 
 | LK(LOCK_IS, LOCK_IS)                                                 \
321
 
 | LK(LOCK_IX, LOCK_IS) | LK(LOCK_IX, LOCK_IX)                          \
322
 
 | LK(LOCK_S, LOCK_IS) | LK(LOCK_S, LOCK_S)                             \
323
 
 | LK(LOCK_AUTO_INC, LOCK_AUTO_INC)                                     \
324
 
 | LK(LOCK_X, LOCK_IS) | LK(LOCK_X, LOCK_IX) | LK(LOCK_X, LOCK_S)       \
325
 
 | LK(LOCK_X, LOCK_AUTO_INC) | LK(LOCK_X, LOCK_X)
326
 
 
327
 
#ifdef UNIV_DEBUG
328
 
UNIV_INTERN ibool       lock_print_waits        = FALSE;
329
 
 
330
 
/*************************************************************************
331
 
Validates the lock system. */
332
 
static
333
 
ibool
334
 
lock_validate(void);
335
 
/*===============*/
336
 
                        /* out: TRUE if ok */
337
 
 
338
 
/*************************************************************************
339
 
Validates the record lock queues on a page. */
340
 
static
341
 
ibool
342
 
lock_rec_validate_page(
343
 
/*===================*/
344
 
                        /* out: TRUE if ok */
345
 
        ulint   space,  /* in: space id */
346
 
        ulint   page_no);/* in: page number */
347
 
 
348
 
/* Define the following in order to enable lock_rec_validate_page() checks. */
349
 
# undef UNIV_DEBUG_LOCK_VALIDATE
350
 
#endif /* UNIV_DEBUG */
351
 
 
352
 
/* The lock system */
353
 
UNIV_INTERN lock_sys_t* lock_sys        = NULL;
354
 
 
355
 
/* We store info on the latest deadlock error to this buffer. InnoDB
356
 
Monitor will then fetch it and print */
357
 
UNIV_INTERN ibool       lock_deadlock_found = FALSE;
358
 
UNIV_INTERN FILE*       lock_latest_err_file;
359
 
 
360
 
/* Flags for recursive deadlock search */
361
 
#define LOCK_VICTIM_IS_START    1
362
 
#define LOCK_VICTIM_IS_OTHER    2
363
 
 
364
 
/************************************************************************
365
 
Checks if a lock request results in a deadlock. */
366
 
static
367
 
ibool
368
 
lock_deadlock_occurs(
369
 
/*=================*/
370
 
                        /* out: TRUE if a deadlock was detected and we
371
 
                        chose trx as a victim; FALSE if no deadlock, or
372
 
                        there was a deadlock, but we chose other
373
 
                        transaction(s) as victim(s) */
374
 
        lock_t* lock,   /* in: lock the transaction is requesting */
375
 
        trx_t*  trx);   /* in: transaction */
376
 
/************************************************************************
377
 
Looks recursively for a deadlock. */
378
 
static
379
 
ulint
380
 
lock_deadlock_recursive(
381
 
/*====================*/
382
 
                                /* out: 0 if no deadlock found,
383
 
                                LOCK_VICTIM_IS_START if there was a deadlock
384
 
                                and we chose 'start' as the victim,
385
 
                                LOCK_VICTIM_IS_OTHER if a deadlock
386
 
                                was found and we chose some other trx as a
387
 
                                victim: we must do the search again in this
388
 
                                last case because there may be another
389
 
                                deadlock! */
390
 
        trx_t*  start,          /* in: recursion starting point */
391
 
        trx_t*  trx,            /* in: a transaction waiting for a lock */
392
 
        lock_t* wait_lock,      /* in: the lock trx is waiting to be granted */
393
 
        ulint*  cost,           /* in/out: number of calculation steps thus
394
 
                                far: if this exceeds LOCK_MAX_N_STEPS_...
395
 
                                we return LOCK_VICTIM_IS_START */
396
 
        ulint   depth);         /* in: recursion depth: if this exceeds
397
 
                                LOCK_MAX_DEPTH_IN_DEADLOCK_CHECK, we
398
 
                                return LOCK_VICTIM_IS_START */
399
 
 
400
 
/*************************************************************************
401
 
Gets the nth bit of a record lock. */
402
 
UNIV_INLINE
403
 
ibool
404
 
lock_rec_get_nth_bit(
405
 
/*=================*/
406
 
                                /* out: TRUE if bit set */
407
 
        const lock_t*   lock,   /* in: record lock */
408
 
        ulint           i)      /* in: index of the bit */
409
 
{
410
 
        ulint   byte_index;
411
 
        ulint   bit_index;
412
 
 
413
 
        ut_ad(lock);
414
 
        ut_ad(lock_get_type_low(lock) == LOCK_REC);
415
 
 
416
 
        if (i >= lock->un_member.rec_lock.n_bits) {
417
 
 
418
 
                return(FALSE);
419
 
        }
420
 
 
421
 
        byte_index = i / 8;
422
 
        bit_index = i % 8;
423
 
 
424
 
        return(1 & ((const byte*) &lock[1])[byte_index] >> bit_index);
425
 
}
426
 
 
427
 
/*************************************************************************/
428
 
 
429
 
#define lock_mutex_enter_kernel()       mutex_enter(&kernel_mutex)
430
 
#define lock_mutex_exit_kernel()        mutex_exit(&kernel_mutex)
431
 
 
432
 
/*************************************************************************
433
 
Checks that a transaction id is sensible, i.e., not in the future. */
434
 
UNIV_INTERN
435
 
ibool
436
 
lock_check_trx_id_sanity(
437
 
/*=====================*/
438
 
                                        /* out: TRUE if ok */
439
 
        dulint          trx_id,         /* in: trx id */
440
 
        const rec_t*    rec,            /* in: user record */
441
 
        dict_index_t*   index,          /* in: index */
442
 
        const ulint*    offsets,        /* in: rec_get_offsets(rec, index) */
443
 
        ibool           has_kernel_mutex)/* in: TRUE if the caller owns the
444
 
                                        kernel mutex */
445
 
{
446
 
        ibool   is_ok           = TRUE;
447
 
 
448
 
        ut_ad(rec_offs_validate(rec, index, offsets));
449
 
 
450
 
        if (!has_kernel_mutex) {
451
 
                mutex_enter(&kernel_mutex);
452
 
        }
453
 
 
454
 
        /* A sanity check: the trx_id in rec must be smaller than the global
455
 
        trx id counter */
456
 
 
457
 
        if (ut_dulint_cmp(trx_id, trx_sys->max_trx_id) >= 0) {
458
 
                ut_print_timestamp(stderr);
459
 
                fputs("  InnoDB: Error: transaction id associated"
460
 
                      " with record\n",
461
 
                      stderr);
462
 
                rec_print_new(stderr, rec, offsets);
463
 
                fputs("InnoDB: in ", stderr);
464
 
                dict_index_name_print(stderr, NULL, index);
465
 
                fprintf(stderr, "\n"
466
 
                        "InnoDB: is " TRX_ID_FMT " which is higher than the"
467
 
                        " global trx id counter " TRX_ID_FMT "!\n"
468
 
                        "InnoDB: The table is corrupt. You have to do"
469
 
                        " dump + drop + reimport.\n",
470
 
                        TRX_ID_PREP_PRINTF(trx_id),
471
 
                        TRX_ID_PREP_PRINTF(trx_sys->max_trx_id));
472
 
 
473
 
                is_ok = FALSE;
474
 
        }
475
 
 
476
 
        if (!has_kernel_mutex) {
477
 
                mutex_exit(&kernel_mutex);
478
 
        }
479
 
 
480
 
        return(is_ok);
481
 
}
482
 
 
483
 
/*************************************************************************
484
 
Checks that a record is seen in a consistent read. */
485
 
UNIV_INTERN
486
 
ibool
487
 
lock_clust_rec_cons_read_sees(
488
 
/*==========================*/
489
 
                                /* out: TRUE if sees, or FALSE if an earlier
490
 
                                version of the record should be retrieved */
491
 
        const rec_t*    rec,    /* in: user record which should be read or
492
 
                                passed over by a read cursor */
493
 
        dict_index_t*   index,  /* in: clustered index */
494
 
        const ulint*    offsets,/* in: rec_get_offsets(rec, index) */
495
 
        read_view_t*    view)   /* in: consistent read view */
496
 
{
497
 
        dulint  trx_id;
498
 
 
499
 
        ut_ad(dict_index_is_clust(index));
500
 
        ut_ad(page_rec_is_user_rec(rec));
501
 
        ut_ad(rec_offs_validate(rec, index, offsets));
502
 
 
503
 
        /* NOTE that we call this function while holding the search
504
 
        system latch. To obey the latching order we must NOT reserve the
505
 
        kernel mutex here! */
506
 
 
507
 
        trx_id = row_get_rec_trx_id(rec, index, offsets);
508
 
 
509
 
        return(read_view_sees_trx_id(view, trx_id));
510
 
}
511
 
 
512
 
/*************************************************************************
513
 
Checks that a non-clustered index record is seen in a consistent read. */
514
 
UNIV_INTERN
515
 
ulint
516
 
lock_sec_rec_cons_read_sees(
517
 
/*========================*/
518
 
                                        /* out: TRUE if certainly
519
 
                                        sees, or FALSE if an earlier
520
 
                                        version of the clustered index
521
 
                                        record might be needed: NOTE
522
 
                                        that a non-clustered index
523
 
                                        page contains so little
524
 
                                        information on its
525
 
                                        modifications that also in the
526
 
                                        case FALSE, the present
527
 
                                        version of rec may be the
528
 
                                        right, but we must check this
529
 
                                        from the clustered index
530
 
                                        record */
531
 
        const rec_t*            rec,    /* in: user record which
532
 
                                        should be read or passed over
533
 
                                        by a read cursor */
534
 
        const read_view_t*      view)   /* in: consistent read view */
535
 
{
536
 
        dulint  max_trx_id;
537
 
 
538
 
        ut_ad(page_rec_is_user_rec(rec));
539
 
 
540
 
        /* NOTE that we might call this function while holding the search
541
 
        system latch. To obey the latching order we must NOT reserve the
542
 
        kernel mutex here! */
543
 
 
544
 
        if (recv_recovery_is_on()) {
545
 
 
546
 
                return(FALSE);
547
 
        }
548
 
 
549
 
        max_trx_id = page_get_max_trx_id(page_align(rec));
550
 
 
551
 
        return(ut_dulint_cmp(max_trx_id, view->up_limit_id) < 0);
552
 
}
553
 
 
554
 
/*************************************************************************
555
 
Creates the lock system at database start. */
556
 
UNIV_INTERN
557
 
void
558
 
lock_sys_create(
559
 
/*============*/
560
 
        ulint   n_cells)        /* in: number of slots in lock hash table */
561
 
{
562
 
        lock_sys = mem_alloc(sizeof(lock_sys_t));
563
 
 
564
 
        lock_sys->rec_hash = hash_create(n_cells);
565
 
 
566
 
        /* hash_create_mutexes(lock_sys->rec_hash, 2, SYNC_REC_LOCK); */
567
 
 
568
 
        lock_latest_err_file = os_file_create_tmpfile();
569
 
        ut_a(lock_latest_err_file);
570
 
}
571
 
 
572
 
/*************************************************************************
573
 
Gets the size of a lock struct. */
574
 
UNIV_INTERN
575
 
ulint
576
 
lock_get_size(void)
577
 
/*===============*/
578
 
                        /* out: size in bytes */
579
 
{
580
 
        return((ulint)sizeof(lock_t));
581
 
}
582
 
 
583
 
/*************************************************************************
584
 
Gets the mode of a lock. */
585
 
UNIV_INLINE
586
 
enum lock_mode
587
 
lock_get_mode(
588
 
/*==========*/
589
 
                                /* out: mode */
590
 
        const lock_t*   lock)   /* in: lock */
591
 
{
592
 
        ut_ad(lock);
593
 
 
594
 
        return(lock->type_mode & LOCK_MODE_MASK);
595
 
}
596
 
 
597
 
/*************************************************************************
598
 
Gets the wait flag of a lock. */
599
 
UNIV_INLINE
600
 
ibool
601
 
lock_get_wait(
602
 
/*==========*/
603
 
                                /* out: TRUE if waiting */
604
 
        const lock_t*   lock)   /* in: lock */
605
 
{
606
 
        ut_ad(lock);
607
 
 
608
 
        if (UNIV_UNLIKELY(lock->type_mode & LOCK_WAIT)) {
609
 
 
610
 
                return(TRUE);
611
 
        }
612
 
 
613
 
        return(FALSE);
614
 
}
615
 
 
616
 
/*************************************************************************
617
 
Gets the source table of an ALTER TABLE transaction.  The table must be
618
 
covered by an IX or IS table lock. */
619
 
UNIV_INTERN
620
 
dict_table_t*
621
 
lock_get_src_table(
622
 
/*===============*/
623
 
                                /* out: the source table of transaction,
624
 
                                if it is covered by an IX or IS table lock;
625
 
                                dest if there is no source table, and
626
 
                                NULL if the transaction is locking more than
627
 
                                two tables or an inconsistency is found */
628
 
        trx_t*          trx,    /* in: transaction */
629
 
        dict_table_t*   dest,   /* in: destination of ALTER TABLE */
630
 
        enum lock_mode* mode)   /* out: lock mode of the source table */
631
 
{
632
 
        dict_table_t*   src;
633
 
        lock_t*         lock;
634
 
 
635
 
        src = NULL;
636
 
        *mode = LOCK_NONE;
637
 
 
638
 
        for (lock = UT_LIST_GET_FIRST(trx->trx_locks);
639
 
             lock;
640
 
             lock = UT_LIST_GET_NEXT(trx_locks, lock)) {
641
 
                lock_table_t*   tab_lock;
642
 
                enum lock_mode  lock_mode;
643
 
                if (!(lock_get_type_low(lock) & LOCK_TABLE)) {
644
 
                        /* We are only interested in table locks. */
645
 
                        continue;
646
 
                }
647
 
                tab_lock = &lock->un_member.tab_lock;
648
 
                if (dest == tab_lock->table) {
649
 
                        /* We are not interested in the destination table. */
650
 
                        continue;
651
 
                } else if (!src) {
652
 
                        /* This presumably is the source table. */
653
 
                        src = tab_lock->table;
654
 
                        if (UT_LIST_GET_LEN(src->locks) != 1
655
 
                            || UT_LIST_GET_FIRST(src->locks) != lock) {
656
 
                                /* We only support the case when
657
 
                                there is only one lock on this table. */
658
 
                                return(NULL);
659
 
                        }
660
 
                } else if (src != tab_lock->table) {
661
 
                        /* The transaction is locking more than
662
 
                        two tables (src and dest): abort */
663
 
                        return(NULL);
664
 
                }
665
 
 
666
 
                /* Check that the source table is locked by
667
 
                LOCK_IX or LOCK_IS. */
668
 
                lock_mode = lock_get_mode(lock);
669
 
                if (lock_mode == LOCK_IX || lock_mode == LOCK_IS) {
670
 
                        if (*mode != LOCK_NONE && *mode != lock_mode) {
671
 
                                /* There are multiple locks on src. */
672
 
                                return(NULL);
673
 
                        }
674
 
                        *mode = lock_mode;
675
 
                }
676
 
        }
677
 
 
678
 
        if (!src) {
679
 
                /* No source table lock found: flag the situation to caller */
680
 
                src = dest;
681
 
        }
682
 
 
683
 
        return(src);
684
 
}
685
 
 
686
 
/*************************************************************************
687
 
Determine if the given table is exclusively "owned" by the given
688
 
transaction, i.e., transaction holds LOCK_IX and possibly LOCK_AUTO_INC
689
 
on the table. */
690
 
UNIV_INTERN
691
 
ibool
692
 
lock_is_table_exclusive(
693
 
/*====================*/
694
 
                                /* out: TRUE if table is only locked by trx,
695
 
                                with LOCK_IX, and possibly LOCK_AUTO_INC */
696
 
        dict_table_t*   table,  /* in: table */
697
 
        trx_t*          trx)    /* in: transaction */
698
 
{
699
 
        const lock_t*   lock;
700
 
        ibool           ok      = FALSE;
701
 
 
702
 
        ut_ad(table && trx);
703
 
 
704
 
        for (lock = UT_LIST_GET_FIRST(table->locks);
705
 
             lock;
706
 
             lock = UT_LIST_GET_NEXT(locks, &lock->un_member.tab_lock)) {
707
 
                if (lock->trx != trx) {
708
 
                        /* A lock on the table is held
709
 
                        by some other transaction. */
710
 
                        return(FALSE);
711
 
                }
712
 
 
713
 
                if (!(lock_get_type_low(lock) & LOCK_TABLE)) {
714
 
                        /* We are interested in table locks only. */
715
 
                        continue;
716
 
                }
717
 
 
718
 
                switch (lock_get_mode(lock)) {
719
 
                case LOCK_IX:
720
 
                        ok = TRUE;
721
 
                        break;
722
 
                case LOCK_AUTO_INC:
723
 
                        /* It is allowed for trx to hold an
724
 
                        auto_increment lock. */
725
 
                        break;
726
 
                default:
727
 
                        /* Other table locks than LOCK_IX are not allowed. */
728
 
                        return(FALSE);
729
 
                }
730
 
        }
731
 
 
732
 
        return(ok);
733
 
}
734
 
 
735
 
/*************************************************************************
736
 
Sets the wait flag of a lock and the back pointer in trx to lock. */
737
 
UNIV_INLINE
738
 
void
739
 
lock_set_lock_and_trx_wait(
740
 
/*=======================*/
741
 
        lock_t* lock,   /* in: lock */
742
 
        trx_t*  trx)    /* in: trx */
743
 
{
744
 
        ut_ad(lock);
745
 
        ut_ad(trx->wait_lock == NULL);
746
 
 
747
 
        trx->wait_lock = lock;
748
 
        lock->type_mode |= LOCK_WAIT;
749
 
}
750
 
 
751
 
/**************************************************************************
752
 
The back pointer to a waiting lock request in the transaction is set to NULL
753
 
and the wait bit in lock type_mode is reset. */
754
 
UNIV_INLINE
755
 
void
756
 
lock_reset_lock_and_trx_wait(
757
 
/*=========================*/
758
 
        lock_t* lock)   /* in: record lock */
759
 
{
760
 
        ut_ad((lock->trx)->wait_lock == lock);
761
 
        ut_ad(lock_get_wait(lock));
762
 
 
763
 
        /* Reset the back pointer in trx to this waiting lock request */
764
 
 
765
 
        (lock->trx)->wait_lock = NULL;
766
 
        lock->type_mode &= ~LOCK_WAIT;
767
 
}
768
 
 
769
 
/*************************************************************************
770
 
Gets the gap flag of a record lock. */
771
 
UNIV_INLINE
772
 
ibool
773
 
lock_rec_get_gap(
774
 
/*=============*/
775
 
                                /* out: TRUE if gap flag set */
776
 
        const lock_t*   lock)   /* in: record lock */
777
 
{
778
 
        ut_ad(lock);
779
 
        ut_ad(lock_get_type_low(lock) == LOCK_REC);
780
 
 
781
 
        if (lock->type_mode & LOCK_GAP) {
782
 
 
783
 
                return(TRUE);
784
 
        }
785
 
 
786
 
        return(FALSE);
787
 
}
788
 
 
789
 
/*************************************************************************
790
 
Gets the LOCK_REC_NOT_GAP flag of a record lock. */
791
 
UNIV_INLINE
792
 
ibool
793
 
lock_rec_get_rec_not_gap(
794
 
/*=====================*/
795
 
                                /* out: TRUE if LOCK_REC_NOT_GAP flag set */
796
 
        const lock_t*   lock)   /* in: record lock */
797
 
{
798
 
        ut_ad(lock);
799
 
        ut_ad(lock_get_type_low(lock) == LOCK_REC);
800
 
 
801
 
        if (lock->type_mode & LOCK_REC_NOT_GAP) {
802
 
 
803
 
                return(TRUE);
804
 
        }
805
 
 
806
 
        return(FALSE);
807
 
}
808
 
 
809
 
/*************************************************************************
810
 
Gets the waiting insert flag of a record lock. */
811
 
UNIV_INLINE
812
 
ibool
813
 
lock_rec_get_insert_intention(
814
 
/*==========================*/
815
 
                                /* out: TRUE if gap flag set */
816
 
        const lock_t*   lock)   /* in: record lock */
817
 
{
818
 
        ut_ad(lock);
819
 
        ut_ad(lock_get_type_low(lock) == LOCK_REC);
820
 
 
821
 
        if (lock->type_mode & LOCK_INSERT_INTENTION) {
822
 
 
823
 
                return(TRUE);
824
 
        }
825
 
 
826
 
        return(FALSE);
827
 
}
828
 
 
829
 
/*************************************************************************
830
 
Calculates if lock mode 1 is stronger or equal to lock mode 2. */
831
 
UNIV_INLINE
832
 
ulint
833
 
lock_mode_stronger_or_eq(
834
 
/*=====================*/
835
 
                                /* out: nonzero
836
 
                                if mode1 stronger or equal to mode2 */
837
 
        enum lock_mode  mode1,  /* in: lock mode */
838
 
        enum lock_mode  mode2)  /* in: lock mode */
839
 
{
840
 
        ut_ad(mode1 == LOCK_X || mode1 == LOCK_S || mode1 == LOCK_IX
841
 
              || mode1 == LOCK_IS || mode1 == LOCK_AUTO_INC);
842
 
        ut_ad(mode2 == LOCK_X || mode2 == LOCK_S || mode2 == LOCK_IX
843
 
              || mode2 == LOCK_IS || mode2 == LOCK_AUTO_INC);
844
 
 
845
 
        return((LOCK_MODE_STRONGER_OR_EQ) & LK(mode1, mode2));
846
 
}
847
 
 
848
 
/*************************************************************************
849
 
Calculates if lock mode 1 is compatible with lock mode 2. */
850
 
UNIV_INLINE
851
 
ulint
852
 
lock_mode_compatible(
853
 
/*=================*/
854
 
                        /* out: nonzero if mode1 compatible with mode2 */
855
 
        enum lock_mode  mode1,  /* in: lock mode */
856
 
        enum lock_mode  mode2)  /* in: lock mode */
857
 
{
858
 
        ut_ad(mode1 == LOCK_X || mode1 == LOCK_S || mode1 == LOCK_IX
859
 
              || mode1 == LOCK_IS || mode1 == LOCK_AUTO_INC);
860
 
        ut_ad(mode2 == LOCK_X || mode2 == LOCK_S || mode2 == LOCK_IX
861
 
              || mode2 == LOCK_IS || mode2 == LOCK_AUTO_INC);
862
 
 
863
 
        return((LOCK_MODE_COMPATIBILITY) & LK(mode1, mode2));
864
 
}
865
 
 
866
 
/*************************************************************************
867
 
Checks if a lock request for a new lock has to wait for request lock2. */
868
 
UNIV_INLINE
869
 
ibool
870
 
lock_rec_has_to_wait(
871
 
/*=================*/
872
 
                                /* out: TRUE if new lock has to wait
873
 
                                for lock2 to be removed */
874
 
        const trx_t*    trx,    /* in: trx of new lock */
875
 
        ulint           type_mode,/* in: precise mode of the new lock
876
 
                                to set: LOCK_S or LOCK_X, possibly
877
 
                                ORed to LOCK_GAP or LOCK_REC_NOT_GAP,
878
 
                                LOCK_INSERT_INTENTION */
879
 
        const lock_t*   lock2,  /* in: another record lock; NOTE that
880
 
                                it is assumed that this has a lock bit
881
 
                                set on the same record as in the new
882
 
                                lock we are setting */
883
 
        ibool lock_is_on_supremum)  /* in: TRUE if we are setting the
884
 
                                lock on the 'supremum' record of an
885
 
                                index page: we know then that the lock
886
 
                                request is really for a 'gap' type lock */
887
 
{
888
 
        ut_ad(trx && lock2);
889
 
        ut_ad(lock_get_type_low(lock2) == LOCK_REC);
890
 
 
891
 
        if (trx != lock2->trx
892
 
            && !lock_mode_compatible(LOCK_MODE_MASK & type_mode,
893
 
                                     lock_get_mode(lock2))) {
894
 
 
895
 
                /* We have somewhat complex rules when gap type record locks
896
 
                cause waits */
897
 
 
898
 
                if ((lock_is_on_supremum || (type_mode & LOCK_GAP))
899
 
                    && !(type_mode & LOCK_INSERT_INTENTION)) {
900
 
 
901
 
                        /* Gap type locks without LOCK_INSERT_INTENTION flag
902
 
                        do not need to wait for anything. This is because
903
 
                        different users can have conflicting lock types
904
 
                        on gaps. */
905
 
 
906
 
                        return(FALSE);
907
 
                }
908
 
 
909
 
                if (!(type_mode & LOCK_INSERT_INTENTION)
910
 
                    && lock_rec_get_gap(lock2)) {
911
 
 
912
 
                        /* Record lock (LOCK_ORDINARY or LOCK_REC_NOT_GAP
913
 
                        does not need to wait for a gap type lock */
914
 
 
915
 
                        return(FALSE);
916
 
                }
917
 
 
918
 
                if ((type_mode & LOCK_GAP)
919
 
                    && lock_rec_get_rec_not_gap(lock2)) {
920
 
 
921
 
                        /* Lock on gap does not need to wait for
922
 
                        a LOCK_REC_NOT_GAP type lock */
923
 
 
924
 
                        return(FALSE);
925
 
                }
926
 
 
927
 
                if (lock_rec_get_insert_intention(lock2)) {
928
 
 
929
 
                        /* No lock request needs to wait for an insert
930
 
                        intention lock to be removed. This is ok since our
931
 
                        rules allow conflicting locks on gaps. This eliminates
932
 
                        a spurious deadlock caused by a next-key lock waiting
933
 
                        for an insert intention lock; when the insert
934
 
                        intention lock was granted, the insert deadlocked on
935
 
                        the waiting next-key lock.
936
 
 
937
 
                        Also, insert intention locks do not disturb each
938
 
                        other. */
939
 
 
940
 
                        return(FALSE);
941
 
                }
942
 
 
943
 
                return(TRUE);
944
 
        }
945
 
 
946
 
        return(FALSE);
947
 
}
948
 
 
949
 
/*************************************************************************
950
 
Checks if a lock request lock1 has to wait for request lock2. */
951
 
UNIV_INTERN
952
 
ibool
953
 
lock_has_to_wait(
954
 
/*=============*/
955
 
                                /* out: TRUE if lock1 has to wait for
956
 
                                lock2 to be removed */
957
 
        const lock_t*   lock1,  /* in: waiting lock */
958
 
        const lock_t*   lock2)  /* in: another lock; NOTE that it is
959
 
                                assumed that this has a lock bit set
960
 
                                on the same record as in lock1 if the
961
 
                                locks are record locks */
962
 
{
963
 
        ut_ad(lock1 && lock2);
964
 
 
965
 
        if (lock1->trx != lock2->trx
966
 
            && !lock_mode_compatible(lock_get_mode(lock1),
967
 
                                     lock_get_mode(lock2))) {
968
 
                if (lock_get_type_low(lock1) == LOCK_REC) {
969
 
                        ut_ad(lock_get_type_low(lock2) == LOCK_REC);
970
 
 
971
 
                        /* If this lock request is for a supremum record
972
 
                        then the second bit on the lock bitmap is set */
973
 
 
974
 
                        return(lock_rec_has_to_wait(lock1->trx,
975
 
                                                    lock1->type_mode, lock2,
976
 
                                                    lock_rec_get_nth_bit(
977
 
                                                            lock1, 1)));
978
 
                }
979
 
 
980
 
                return(TRUE);
981
 
        }
982
 
 
983
 
        return(FALSE);
984
 
}
985
 
 
986
 
/*============== RECORD LOCK BASIC FUNCTIONS ============================*/
987
 
 
988
 
/*************************************************************************
989
 
Gets the number of bits in a record lock bitmap. */
990
 
UNIV_INLINE
991
 
ulint
992
 
lock_rec_get_n_bits(
993
 
/*================*/
994
 
                                /* out: number of bits */
995
 
        const lock_t*   lock)   /* in: record lock */
996
 
{
997
 
        return(lock->un_member.rec_lock.n_bits);
998
 
}
999
 
 
1000
 
/**************************************************************************
1001
 
Sets the nth bit of a record lock to TRUE. */
1002
 
UNIV_INLINE
1003
 
void
1004
 
lock_rec_set_nth_bit(
1005
 
/*=================*/
1006
 
        lock_t* lock,   /* in: record lock */
1007
 
        ulint   i)      /* in: index of the bit */
1008
 
{
1009
 
        ulint   byte_index;
1010
 
        ulint   bit_index;
1011
 
 
1012
 
        ut_ad(lock);
1013
 
        ut_ad(lock_get_type_low(lock) == LOCK_REC);
1014
 
        ut_ad(i < lock->un_member.rec_lock.n_bits);
1015
 
 
1016
 
        byte_index = i / 8;
1017
 
        bit_index = i % 8;
1018
 
 
1019
 
        ((byte*) &lock[1])[byte_index] |= 1 << bit_index;
1020
 
}
1021
 
 
1022
 
/**************************************************************************
1023
 
Looks for a set bit in a record lock bitmap. Returns ULINT_UNDEFINED,
1024
 
if none found. */
1025
 
UNIV_INTERN
1026
 
ulint
1027
 
lock_rec_find_set_bit(
1028
 
/*==================*/
1029
 
                                /* out: bit index == heap number of
1030
 
                                the record, or ULINT_UNDEFINED if none found */
1031
 
        const lock_t*   lock)   /* in: record lock with at least one bit set */
1032
 
{
1033
 
        ulint   i;
1034
 
 
1035
 
        for (i = 0; i < lock_rec_get_n_bits(lock); i++) {
1036
 
 
1037
 
                if (lock_rec_get_nth_bit(lock, i)) {
1038
 
 
1039
 
                        return(i);
1040
 
                }
1041
 
        }
1042
 
 
1043
 
        return(ULINT_UNDEFINED);
1044
 
}
1045
 
 
1046
 
/**************************************************************************
1047
 
Resets the nth bit of a record lock. */
1048
 
UNIV_INLINE
1049
 
void
1050
 
lock_rec_reset_nth_bit(
1051
 
/*===================*/
1052
 
        lock_t* lock,   /* in: record lock */
1053
 
        ulint   i)      /* in: index of the bit which must be set to TRUE
1054
 
                        when this function is called */
1055
 
{
1056
 
        ulint   byte_index;
1057
 
        ulint   bit_index;
1058
 
 
1059
 
        ut_ad(lock);
1060
 
        ut_ad(lock_get_type_low(lock) == LOCK_REC);
1061
 
        ut_ad(i < lock->un_member.rec_lock.n_bits);
1062
 
 
1063
 
        byte_index = i / 8;
1064
 
        bit_index = i % 8;
1065
 
 
1066
 
        ((byte*) &lock[1])[byte_index] &= ~(1 << bit_index);
1067
 
}
1068
 
 
1069
 
/*************************************************************************
1070
 
Gets the first or next record lock on a page. */
1071
 
UNIV_INLINE
1072
 
lock_t*
1073
 
lock_rec_get_next_on_page(
1074
 
/*======================*/
1075
 
                        /* out: next lock, NULL if none exists */
1076
 
        lock_t* lock)   /* in: a record lock */
1077
 
{
1078
 
        ulint   space;
1079
 
        ulint   page_no;
1080
 
 
1081
 
        ut_ad(mutex_own(&kernel_mutex));
1082
 
        ut_ad(lock_get_type_low(lock) == LOCK_REC);
1083
 
 
1084
 
        space = lock->un_member.rec_lock.space;
1085
 
        page_no = lock->un_member.rec_lock.page_no;
1086
 
 
1087
 
        for (;;) {
1088
 
                lock = HASH_GET_NEXT(hash, lock);
1089
 
 
1090
 
                if (!lock) {
1091
 
 
1092
 
                        break;
1093
 
                }
1094
 
 
1095
 
                if ((lock->un_member.rec_lock.space == space)
1096
 
                    && (lock->un_member.rec_lock.page_no == page_no)) {
1097
 
 
1098
 
                        break;
1099
 
                }
1100
 
        }
1101
 
 
1102
 
        return(lock);
1103
 
}
1104
 
 
1105
 
/*************************************************************************
1106
 
Gets the first record lock on a page, where the page is identified by its
1107
 
file address. */
1108
 
UNIV_INLINE
1109
 
lock_t*
1110
 
lock_rec_get_first_on_page_addr(
1111
 
/*============================*/
1112
 
                        /* out: first lock, NULL if none exists */
1113
 
        ulint   space,  /* in: space */
1114
 
        ulint   page_no)/* in: page number */
1115
 
{
1116
 
        lock_t* lock;
1117
 
 
1118
 
        ut_ad(mutex_own(&kernel_mutex));
1119
 
 
1120
 
        lock = HASH_GET_FIRST(lock_sys->rec_hash,
1121
 
                              lock_rec_hash(space, page_no));
1122
 
        while (lock) {
1123
 
                if ((lock->un_member.rec_lock.space == space)
1124
 
                    && (lock->un_member.rec_lock.page_no == page_no)) {
1125
 
 
1126
 
                        break;
1127
 
                }
1128
 
 
1129
 
                lock = HASH_GET_NEXT(hash, lock);
1130
 
        }
1131
 
 
1132
 
        return(lock);
1133
 
}
1134
 
 
1135
 
/*************************************************************************
1136
 
Returns TRUE if there are explicit record locks on a page. */
1137
 
UNIV_INTERN
1138
 
ibool
1139
 
lock_rec_expl_exist_on_page(
1140
 
/*========================*/
1141
 
                        /* out: TRUE if there are explicit record locks on
1142
 
                        the page */
1143
 
        ulint   space,  /* in: space id */
1144
 
        ulint   page_no)/* in: page number */
1145
 
{
1146
 
        ibool   ret;
1147
 
 
1148
 
        mutex_enter(&kernel_mutex);
1149
 
 
1150
 
        if (lock_rec_get_first_on_page_addr(space, page_no)) {
1151
 
                ret = TRUE;
1152
 
        } else {
1153
 
                ret = FALSE;
1154
 
        }
1155
 
 
1156
 
        mutex_exit(&kernel_mutex);
1157
 
 
1158
 
        return(ret);
1159
 
}
1160
 
 
1161
 
/*************************************************************************
1162
 
Gets the first record lock on a page, where the page is identified by a
1163
 
pointer to it. */
1164
 
UNIV_INLINE
1165
 
lock_t*
1166
 
lock_rec_get_first_on_page(
1167
 
/*=======================*/
1168
 
                                        /* out: first lock, NULL if
1169
 
                                        none exists */
1170
 
        const buf_block_t*      block)  /* in: buffer block */
1171
 
{
1172
 
        ulint   hash;
1173
 
        lock_t* lock;
1174
 
        ulint   space   = buf_block_get_space(block);
1175
 
        ulint   page_no = buf_block_get_page_no(block);
1176
 
 
1177
 
        ut_ad(mutex_own(&kernel_mutex));
1178
 
 
1179
 
        hash = buf_block_get_lock_hash_val(block);
1180
 
 
1181
 
        lock = HASH_GET_FIRST(lock_sys->rec_hash, hash);
1182
 
 
1183
 
        while (lock) {
1184
 
                if ((lock->un_member.rec_lock.space == space)
1185
 
                    && (lock->un_member.rec_lock.page_no == page_no)) {
1186
 
 
1187
 
                        break;
1188
 
                }
1189
 
 
1190
 
                lock = HASH_GET_NEXT(hash, lock);
1191
 
        }
1192
 
 
1193
 
        return(lock);
1194
 
}
1195
 
 
1196
 
/*************************************************************************
1197
 
Gets the next explicit lock request on a record. */
1198
 
UNIV_INLINE
1199
 
lock_t*
1200
 
lock_rec_get_next(
1201
 
/*==============*/
1202
 
                        /* out: next lock, NULL if none exists */
1203
 
        ulint   heap_no,/* in: heap number of the record */
1204
 
        lock_t* lock)   /* in: lock */
1205
 
{
1206
 
        ut_ad(mutex_own(&kernel_mutex));
1207
 
 
1208
 
        do {
1209
 
                ut_ad(lock_get_type_low(lock) == LOCK_REC);
1210
 
                lock = lock_rec_get_next_on_page(lock);
1211
 
        } while (lock && !lock_rec_get_nth_bit(lock, heap_no));
1212
 
 
1213
 
        return(lock);
1214
 
}
1215
 
 
1216
 
/*************************************************************************
1217
 
Gets the first explicit lock request on a record. */
1218
 
UNIV_INLINE
1219
 
lock_t*
1220
 
lock_rec_get_first(
1221
 
/*===============*/
1222
 
                                        /* out: first lock, NULL if
1223
 
                                        none exists */
1224
 
        const buf_block_t*      block,  /* in: block containing the record */
1225
 
        ulint                   heap_no)/* in: heap number of the record */
1226
 
{
1227
 
        lock_t* lock;
1228
 
 
1229
 
        ut_ad(mutex_own(&kernel_mutex));
1230
 
 
1231
 
        for (lock = lock_rec_get_first_on_page(block); lock;
1232
 
             lock = lock_rec_get_next_on_page(lock)) {
1233
 
                if (lock_rec_get_nth_bit(lock, heap_no)) {
1234
 
                        break;
1235
 
                }
1236
 
        }
1237
 
 
1238
 
        return(lock);
1239
 
}
1240
 
 
1241
 
/*************************************************************************
1242
 
Resets the record lock bitmap to zero. NOTE: does not touch the wait_lock
1243
 
pointer in the transaction! This function is used in lock object creation
1244
 
and resetting. */
1245
 
static
1246
 
void
1247
 
lock_rec_bitmap_reset(
1248
 
/*==================*/
1249
 
        lock_t* lock)   /* in: record lock */
1250
 
{
1251
 
        ulint   n_bytes;
1252
 
 
1253
 
        ut_ad(lock_get_type_low(lock) == LOCK_REC);
1254
 
 
1255
 
        /* Reset to zero the bitmap which resides immediately after the lock
1256
 
        struct */
1257
 
 
1258
 
        n_bytes = lock_rec_get_n_bits(lock) / 8;
1259
 
 
1260
 
        ut_ad((lock_rec_get_n_bits(lock) % 8) == 0);
1261
 
 
1262
 
        memset(&lock[1], 0, n_bytes);
1263
 
}
1264
 
 
1265
 
/*************************************************************************
1266
 
Copies a record lock to heap. */
1267
 
static
1268
 
lock_t*
1269
 
lock_rec_copy(
1270
 
/*==========*/
1271
 
                                /* out: copy of lock */
1272
 
        const lock_t*   lock,   /* in: record lock */
1273
 
        mem_heap_t*     heap)   /* in: memory heap */
1274
 
{
1275
 
        ulint   size;
1276
 
 
1277
 
        ut_ad(lock_get_type_low(lock) == LOCK_REC);
1278
 
 
1279
 
        size = sizeof(lock_t) + lock_rec_get_n_bits(lock) / 8;
1280
 
 
1281
 
        return(mem_heap_dup(heap, lock, size));
1282
 
}
1283
 
 
1284
 
/*************************************************************************
1285
 
Gets the previous record lock set on a record. */
1286
 
UNIV_INTERN
1287
 
const lock_t*
1288
 
lock_rec_get_prev(
1289
 
/*==============*/
1290
 
                                /* out: previous lock on the same
1291
 
                                record, NULL if none exists */
1292
 
        const lock_t*   in_lock,/* in: record lock */
1293
 
        ulint           heap_no)/* in: heap number of the record */
1294
 
{
1295
 
        lock_t* lock;
1296
 
        ulint   space;
1297
 
        ulint   page_no;
1298
 
        lock_t* found_lock      = NULL;
1299
 
 
1300
 
        ut_ad(mutex_own(&kernel_mutex));
1301
 
        ut_ad(lock_get_type_low(in_lock) == LOCK_REC);
1302
 
 
1303
 
        space = in_lock->un_member.rec_lock.space;
1304
 
        page_no = in_lock->un_member.rec_lock.page_no;
1305
 
 
1306
 
        lock = lock_rec_get_first_on_page_addr(space, page_no);
1307
 
 
1308
 
        for (;;) {
1309
 
                ut_ad(lock);
1310
 
 
1311
 
                if (lock == in_lock) {
1312
 
 
1313
 
                        return(found_lock);
1314
 
                }
1315
 
 
1316
 
                if (lock_rec_get_nth_bit(lock, heap_no)) {
1317
 
 
1318
 
                        found_lock = lock;
1319
 
                }
1320
 
 
1321
 
                lock = lock_rec_get_next_on_page(lock);
1322
 
        }
1323
 
}
1324
 
 
1325
 
/*============= FUNCTIONS FOR ANALYZING TABLE LOCK QUEUE ================*/
1326
 
 
1327
 
/*************************************************************************
1328
 
Checks if a transaction has the specified table lock, or stronger. */
1329
 
UNIV_INLINE
1330
 
lock_t*
1331
 
lock_table_has(
1332
 
/*===========*/
1333
 
                                /* out: lock or NULL */
1334
 
        trx_t*          trx,    /* in: transaction */
1335
 
        dict_table_t*   table,  /* in: table */
1336
 
        enum lock_mode  mode)   /* in: lock mode */
1337
 
{
1338
 
        lock_t* lock;
1339
 
 
1340
 
        ut_ad(mutex_own(&kernel_mutex));
1341
 
 
1342
 
        /* Look for stronger locks the same trx already has on the table */
1343
 
 
1344
 
        lock = UT_LIST_GET_LAST(table->locks);
1345
 
 
1346
 
        while (lock != NULL) {
1347
 
 
1348
 
                if (lock->trx == trx
1349
 
                    && lock_mode_stronger_or_eq(lock_get_mode(lock), mode)) {
1350
 
 
1351
 
                        /* The same trx already has locked the table in
1352
 
                        a mode stronger or equal to the mode given */
1353
 
 
1354
 
                        ut_ad(!lock_get_wait(lock));
1355
 
 
1356
 
                        return(lock);
1357
 
                }
1358
 
 
1359
 
                lock = UT_LIST_GET_PREV(un_member.tab_lock.locks, lock);
1360
 
        }
1361
 
 
1362
 
        return(NULL);
1363
 
}
1364
 
 
1365
 
/*============= FUNCTIONS FOR ANALYZING RECORD LOCK QUEUE ================*/
1366
 
 
1367
 
/*************************************************************************
1368
 
Checks if a transaction has a GRANTED explicit lock on rec stronger or equal
1369
 
to precise_mode. */
1370
 
UNIV_INLINE
1371
 
lock_t*
1372
 
lock_rec_has_expl(
1373
 
/*==============*/
1374
 
                                        /* out: lock or NULL */
1375
 
        ulint                   precise_mode,/* in: LOCK_S or LOCK_X
1376
 
                                        possibly ORed to LOCK_GAP or
1377
 
                                        LOCK_REC_NOT_GAP, for a
1378
 
                                        supremum record we regard this
1379
 
                                        always a gap type request */
1380
 
        const buf_block_t*      block,  /* in: buffer block containing
1381
 
                                        the record */
1382
 
        ulint                   heap_no,/* in: heap number of the record */
1383
 
        trx_t*                  trx)    /* in: transaction */
1384
 
{
1385
 
        lock_t* lock;
1386
 
 
1387
 
        ut_ad(mutex_own(&kernel_mutex));
1388
 
        ut_ad((precise_mode & LOCK_MODE_MASK) == LOCK_S
1389
 
              || (precise_mode & LOCK_MODE_MASK) == LOCK_X);
1390
 
        ut_ad(!(precise_mode & LOCK_INSERT_INTENTION));
1391
 
 
1392
 
        lock = lock_rec_get_first(block, heap_no);
1393
 
 
1394
 
        while (lock) {
1395
 
                if (lock->trx == trx
1396
 
                    && lock_mode_stronger_or_eq(lock_get_mode(lock),
1397
 
                                                precise_mode & LOCK_MODE_MASK)
1398
 
                    && !lock_get_wait(lock)
1399
 
                    && (!lock_rec_get_rec_not_gap(lock)
1400
 
                        || (precise_mode & LOCK_REC_NOT_GAP)
1401
 
                        || heap_no == PAGE_HEAP_NO_SUPREMUM)
1402
 
                    && (!lock_rec_get_gap(lock)
1403
 
                        || (precise_mode & LOCK_GAP)
1404
 
                        || heap_no == PAGE_HEAP_NO_SUPREMUM)
1405
 
                    && (!lock_rec_get_insert_intention(lock))) {
1406
 
 
1407
 
                        return(lock);
1408
 
                }
1409
 
 
1410
 
                lock = lock_rec_get_next(heap_no, lock);
1411
 
        }
1412
 
 
1413
 
        return(NULL);
1414
 
}
1415
 
 
1416
 
#ifdef UNIV_DEBUG
1417
 
# ifndef UNIV_HOTBACKUP
1418
 
/*************************************************************************
1419
 
Checks if some other transaction has a lock request in the queue. */
1420
 
static
1421
 
lock_t*
1422
 
lock_rec_other_has_expl_req(
1423
 
/*========================*/
1424
 
                                        /* out: lock or NULL */
1425
 
        enum lock_mode          mode,   /* in: LOCK_S or LOCK_X */
1426
 
        ulint                   gap,    /* in: LOCK_GAP if also gap
1427
 
                                        locks are taken into account,
1428
 
                                        or 0 if not */
1429
 
        ulint                   wait,   /* in: LOCK_WAIT if also
1430
 
                                        waiting locks are taken into
1431
 
                                        account, or 0 if not */
1432
 
        const buf_block_t*      block,  /* in: buffer block containing
1433
 
                                        the record */
1434
 
        ulint                   heap_no,/* in: heap number of the record */
1435
 
        const trx_t*            trx)    /* in: transaction, or NULL if
1436
 
                                        requests by all transactions
1437
 
                                        are taken into account */
1438
 
{
1439
 
        lock_t* lock;
1440
 
 
1441
 
        ut_ad(mutex_own(&kernel_mutex));
1442
 
        ut_ad(mode == LOCK_X || mode == LOCK_S);
1443
 
        ut_ad(gap == 0 || gap == LOCK_GAP);
1444
 
        ut_ad(wait == 0 || wait == LOCK_WAIT);
1445
 
 
1446
 
        lock = lock_rec_get_first(block, heap_no);
1447
 
 
1448
 
        while (lock) {
1449
 
                if (lock->trx != trx
1450
 
                    && (gap
1451
 
                        || !(lock_rec_get_gap(lock)
1452
 
                             || heap_no == PAGE_HEAP_NO_SUPREMUM))
1453
 
                    && (wait || !lock_get_wait(lock))
1454
 
                    && lock_mode_stronger_or_eq(lock_get_mode(lock), mode)) {
1455
 
 
1456
 
                        return(lock);
1457
 
                }
1458
 
 
1459
 
                lock = lock_rec_get_next(heap_no, lock);
1460
 
        }
1461
 
 
1462
 
        return(NULL);
1463
 
}
1464
 
# endif /* !UNIV_HOTBACKUP */
1465
 
#endif /* UNIV_DEBUG */
1466
 
 
1467
 
/*************************************************************************
1468
 
Checks if some other transaction has a conflicting explicit lock request
1469
 
in the queue, so that we have to wait. */
1470
 
static
1471
 
lock_t*
1472
 
lock_rec_other_has_conflicting(
1473
 
/*===========================*/
1474
 
                                        /* out: lock or NULL */
1475
 
        enum lock_mode          mode,   /* in: LOCK_S or LOCK_X,
1476
 
                                        possibly ORed to LOCK_GAP or
1477
 
                                        LOC_REC_NOT_GAP,
1478
 
                                        LOCK_INSERT_INTENTION */
1479
 
        const buf_block_t*      block,  /* in: buffer block containing
1480
 
                                        the record */
1481
 
        ulint                   heap_no,/* in: heap number of the record */
1482
 
        trx_t*                  trx)    /* in: our transaction */
1483
 
{
1484
 
        lock_t* lock;
1485
 
 
1486
 
        ut_ad(mutex_own(&kernel_mutex));
1487
 
 
1488
 
        lock = lock_rec_get_first(block, heap_no);
1489
 
 
1490
 
        if (UNIV_LIKELY_NULL(lock)) {
1491
 
                if (UNIV_UNLIKELY(heap_no == PAGE_HEAP_NO_SUPREMUM)) {
1492
 
 
1493
 
                        do {
1494
 
                                if (lock_rec_has_to_wait(trx, mode, lock,
1495
 
                                                         TRUE)) {
1496
 
                                        return(lock);
1497
 
                                }
1498
 
 
1499
 
                                lock = lock_rec_get_next(heap_no, lock);
1500
 
                        } while (lock);
1501
 
                } else {
1502
 
 
1503
 
                        do {
1504
 
                                if (lock_rec_has_to_wait(trx, mode, lock,
1505
 
                                                         FALSE)) {
1506
 
                                        return(lock);
1507
 
                                }
1508
 
 
1509
 
                                lock = lock_rec_get_next(heap_no, lock);
1510
 
                        } while (lock);
1511
 
                }
1512
 
        }
1513
 
 
1514
 
        return(NULL);
1515
 
}
1516
 
 
1517
 
/*************************************************************************
1518
 
Looks for a suitable type record lock struct by the same trx on the same page.
1519
 
This can be used to save space when a new record lock should be set on a page:
1520
 
no new struct is needed, if a suitable old is found. */
1521
 
UNIV_INLINE
1522
 
lock_t*
1523
 
lock_rec_find_similar_on_page(
1524
 
/*==========================*/
1525
 
                                        /* out: lock or NULL */
1526
 
        ulint           type_mode,      /* in: lock type_mode field */
1527
 
        ulint           heap_no,        /* in: heap number of the record */
1528
 
        lock_t*         lock,           /* in: lock_rec_get_first_on_page() */
1529
 
        const trx_t*    trx)            /* in: transaction */
1530
 
{
1531
 
        ut_ad(mutex_own(&kernel_mutex));
1532
 
 
1533
 
        while (lock != NULL) {
1534
 
                if (lock->trx == trx
1535
 
                    && lock->type_mode == type_mode
1536
 
                    && lock_rec_get_n_bits(lock) > heap_no) {
1537
 
 
1538
 
                        return(lock);
1539
 
                }
1540
 
 
1541
 
                lock = lock_rec_get_next_on_page(lock);
1542
 
        }
1543
 
 
1544
 
        return(NULL);
1545
 
}
1546
 
 
1547
 
/*************************************************************************
1548
 
Checks if some transaction has an implicit x-lock on a record in a secondary
1549
 
index. */
1550
 
static
1551
 
trx_t*
1552
 
lock_sec_rec_some_has_impl_off_kernel(
1553
 
/*==================================*/
1554
 
                                /* out: transaction which has the x-lock, or
1555
 
                                NULL */
1556
 
        const rec_t*    rec,    /* in: user record */
1557
 
        dict_index_t*   index,  /* in: secondary index */
1558
 
        const ulint*    offsets)/* in: rec_get_offsets(rec, index) */
1559
 
{
1560
 
        const page_t*   page = page_align(rec);
1561
 
 
1562
 
        ut_ad(mutex_own(&kernel_mutex));
1563
 
        ut_ad(!dict_index_is_clust(index));
1564
 
        ut_ad(page_rec_is_user_rec(rec));
1565
 
        ut_ad(rec_offs_validate(rec, index, offsets));
1566
 
 
1567
 
        /* Some transaction may have an implicit x-lock on the record only
1568
 
        if the max trx id for the page >= min trx id for the trx list, or
1569
 
        database recovery is running. We do not write the changes of a page
1570
 
        max trx id to the log, and therefore during recovery, this value
1571
 
        for a page may be incorrect. */
1572
 
 
1573
 
        if (!(ut_dulint_cmp(page_get_max_trx_id(page),
1574
 
                            trx_list_get_min_trx_id()) >= 0)
1575
 
            && !recv_recovery_is_on()) {
1576
 
 
1577
 
                return(NULL);
1578
 
        }
1579
 
 
1580
 
        /* Ok, in this case it is possible that some transaction has an
1581
 
        implicit x-lock. We have to look in the clustered index. */
1582
 
 
1583
 
        if (!lock_check_trx_id_sanity(page_get_max_trx_id(page),
1584
 
                                      rec, index, offsets, TRUE)) {
1585
 
                buf_page_print(page, 0);
1586
 
 
1587
 
                /* The page is corrupt: try to avoid a crash by returning
1588
 
                NULL */
1589
 
                return(NULL);
1590
 
        }
1591
 
 
1592
 
        return(row_vers_impl_x_locked_off_kernel(rec, index, offsets));
1593
 
}
1594
 
 
1595
 
/*************************************************************************
1596
 
Return approximate number or record locks (bits set in the bitmap) for
1597
 
this transaction. Since delete-marked records may be removed, the
1598
 
record count will not be precise. */
1599
 
UNIV_INTERN
1600
 
ulint
1601
 
lock_number_of_rows_locked(
1602
 
/*=======================*/
1603
 
        trx_t*  trx)    /* in: transaction */
1604
 
{
1605
 
        lock_t* lock;
1606
 
        ulint   n_records = 0;
1607
 
        ulint   n_bits;
1608
 
        ulint   n_bit;
1609
 
 
1610
 
        lock = UT_LIST_GET_FIRST(trx->trx_locks);
1611
 
 
1612
 
        while (lock) {
1613
 
                if (lock_get_type_low(lock) == LOCK_REC) {
1614
 
                        n_bits = lock_rec_get_n_bits(lock);
1615
 
 
1616
 
                        for (n_bit = 0; n_bit < n_bits; n_bit++) {
1617
 
                                if (lock_rec_get_nth_bit(lock, n_bit)) {
1618
 
                                        n_records++;
1619
 
                                }
1620
 
                        }
1621
 
                }
1622
 
 
1623
 
                lock = UT_LIST_GET_NEXT(trx_locks, lock);
1624
 
        }
1625
 
 
1626
 
        return (n_records);
1627
 
}
1628
 
 
1629
 
/*============== RECORD LOCK CREATION AND QUEUE MANAGEMENT =============*/
1630
 
 
1631
 
/*************************************************************************
1632
 
Creates a new record lock and inserts it to the lock queue. Does NOT check
1633
 
for deadlocks or lock compatibility! */
1634
 
static
1635
 
lock_t*
1636
 
lock_rec_create(
1637
 
/*============*/
1638
 
                                        /* out: created lock */
1639
 
        ulint                   type_mode,/* in: lock mode and wait
1640
 
                                        flag, type is ignored and
1641
 
                                        replaced by LOCK_REC */
1642
 
        const buf_block_t*      block,  /* in: buffer block containing
1643
 
                                        the record */
1644
 
        ulint                   heap_no,/* in: heap number of the record */
1645
 
        dict_index_t*           index,  /* in: index of record */
1646
 
        trx_t*                  trx)    /* in: transaction */
1647
 
{
1648
 
        lock_t*         lock;
1649
 
        ulint           page_no;
1650
 
        ulint           space;
1651
 
        ulint           n_bits;
1652
 
        ulint           n_bytes;
1653
 
        const page_t*   page;
1654
 
 
1655
 
        ut_ad(mutex_own(&kernel_mutex));
1656
 
 
1657
 
        space = buf_block_get_space(block);
1658
 
        page_no = buf_block_get_page_no(block);
1659
 
        page = block->frame;
1660
 
 
1661
 
        ut_ad(!!page_is_comp(page) == dict_table_is_comp(index->table));
1662
 
 
1663
 
        /* If rec is the supremum record, then we reset the gap and
1664
 
        LOCK_REC_NOT_GAP bits, as all locks on the supremum are
1665
 
        automatically of the gap type */
1666
 
 
1667
 
        if (UNIV_UNLIKELY(heap_no == PAGE_HEAP_NO_SUPREMUM)) {
1668
 
                ut_ad(!(type_mode & LOCK_REC_NOT_GAP));
1669
 
 
1670
 
                type_mode = type_mode & ~(LOCK_GAP | LOCK_REC_NOT_GAP);
1671
 
        }
1672
 
 
1673
 
        /* Make lock bitmap bigger by a safety margin */
1674
 
        n_bits = page_dir_get_n_heap(page) + LOCK_PAGE_BITMAP_MARGIN;
1675
 
        n_bytes = 1 + n_bits / 8;
1676
 
 
1677
 
        lock = mem_heap_alloc(trx->lock_heap, sizeof(lock_t) + n_bytes);
1678
 
 
1679
 
        UT_LIST_ADD_LAST(trx_locks, trx->trx_locks, lock);
1680
 
 
1681
 
        lock->trx = trx;
1682
 
 
1683
 
        lock->type_mode = (type_mode & ~LOCK_TYPE_MASK) | LOCK_REC;
1684
 
        lock->index = index;
1685
 
 
1686
 
        lock->un_member.rec_lock.space = space;
1687
 
        lock->un_member.rec_lock.page_no = page_no;
1688
 
        lock->un_member.rec_lock.n_bits = n_bytes * 8;
1689
 
 
1690
 
        /* Reset to zero the bitmap which resides immediately after the
1691
 
        lock struct */
1692
 
 
1693
 
        lock_rec_bitmap_reset(lock);
1694
 
 
1695
 
        /* Set the bit corresponding to rec */
1696
 
        lock_rec_set_nth_bit(lock, heap_no);
1697
 
 
1698
 
        HASH_INSERT(lock_t, hash, lock_sys->rec_hash,
1699
 
                    lock_rec_fold(space, page_no), lock);
1700
 
        if (UNIV_UNLIKELY(type_mode & LOCK_WAIT)) {
1701
 
 
1702
 
                lock_set_lock_and_trx_wait(lock, trx);
1703
 
        }
1704
 
 
1705
 
        return(lock);
1706
 
}
1707
 
 
1708
 
/*************************************************************************
1709
 
Enqueues a waiting request for a lock which cannot be granted immediately.
1710
 
Checks for deadlocks. */
1711
 
static
1712
 
ulint
1713
 
lock_rec_enqueue_waiting(
1714
 
/*=====================*/
1715
 
                                        /* out: DB_LOCK_WAIT,
1716
 
                                        DB_DEADLOCK, or
1717
 
                                        DB_QUE_THR_SUSPENDED, or
1718
 
                                        DB_SUCCESS; DB_SUCCESS means
1719
 
                                        that there was a deadlock, but
1720
 
                                        another transaction was chosen
1721
 
                                        as a victim, and we got the
1722
 
                                        lock immediately: no need to
1723
 
                                        wait then */
1724
 
        ulint                   type_mode,/* in: lock mode this
1725
 
                                        transaction is requesting:
1726
 
                                        LOCK_S or LOCK_X, possibly
1727
 
                                        ORed with LOCK_GAP or
1728
 
                                        LOCK_REC_NOT_GAP, ORed with
1729
 
                                        LOCK_INSERT_INTENTION if this
1730
 
                                        waiting lock request is set
1731
 
                                        when performing an insert of
1732
 
                                        an index record */
1733
 
        const buf_block_t*      block,  /* in: buffer block containing
1734
 
                                        the record */
1735
 
        ulint                   heap_no,/* in: heap number of the record */
1736
 
        dict_index_t*           index,  /* in: index of record */
1737
 
        que_thr_t*              thr)    /* in: query thread */
1738
 
{
1739
 
        lock_t* lock;
1740
 
        trx_t*  trx;
1741
 
 
1742
 
        ut_ad(mutex_own(&kernel_mutex));
1743
 
 
1744
 
        /* Test if there already is some other reason to suspend thread:
1745
 
        we do not enqueue a lock request if the query thread should be
1746
 
        stopped anyway */
1747
 
 
1748
 
        if (UNIV_UNLIKELY(que_thr_stop(thr))) {
1749
 
 
1750
 
                ut_error;
1751
 
 
1752
 
                return(DB_QUE_THR_SUSPENDED);
1753
 
        }
1754
 
 
1755
 
        trx = thr_get_trx(thr);
1756
 
 
1757
 
        switch (trx_get_dict_operation(trx)) {
1758
 
        case TRX_DICT_OP_NONE:
1759
 
                break;
1760
 
        case TRX_DICT_OP_TABLE:
1761
 
        case TRX_DICT_OP_INDEX:
1762
 
                ut_print_timestamp(stderr);
1763
 
                fputs("  InnoDB: Error: a record lock wait happens"
1764
 
                      " in a dictionary operation!\n"
1765
 
                      "InnoDB: ", stderr);
1766
 
                dict_index_name_print(stderr, trx, index);
1767
 
                fputs(".\n"
1768
 
                      "InnoDB: Submit a detailed bug report"
1769
 
                      " to http://bugs.mysql.com\n",
1770
 
                      stderr);
1771
 
        }
1772
 
 
1773
 
        /* Enqueue the lock request that will wait to be granted */
1774
 
        lock = lock_rec_create(type_mode | LOCK_WAIT,
1775
 
                               block, heap_no, index, trx);
1776
 
 
1777
 
        /* Check if a deadlock occurs: if yes, remove the lock request and
1778
 
        return an error code */
1779
 
 
1780
 
        if (UNIV_UNLIKELY(lock_deadlock_occurs(lock, trx))) {
1781
 
 
1782
 
                lock_reset_lock_and_trx_wait(lock);
1783
 
                lock_rec_reset_nth_bit(lock, heap_no);
1784
 
 
1785
 
                return(DB_DEADLOCK);
1786
 
        }
1787
 
 
1788
 
        /* If there was a deadlock but we chose another transaction as a
1789
 
        victim, it is possible that we already have the lock now granted! */
1790
 
 
1791
 
        if (trx->wait_lock == NULL) {
1792
 
 
1793
 
                return(DB_SUCCESS);
1794
 
        }
1795
 
 
1796
 
        trx->que_state = TRX_QUE_LOCK_WAIT;
1797
 
        trx->was_chosen_as_deadlock_victim = FALSE;
1798
 
        trx->wait_started = time(NULL);
1799
 
 
1800
 
        ut_a(que_thr_stop(thr));
1801
 
 
1802
 
#ifdef UNIV_DEBUG
1803
 
        if (lock_print_waits) {
1804
 
                fprintf(stderr, "Lock wait for trx %lu in index ",
1805
 
                        (ulong) ut_dulint_get_low(trx->id));
1806
 
                ut_print_name(stderr, trx, FALSE, index->name);
1807
 
        }
1808
 
#endif /* UNIV_DEBUG */
1809
 
 
1810
 
        return(DB_LOCK_WAIT);
1811
 
}
1812
 
 
1813
 
/*************************************************************************
1814
 
Adds a record lock request in the record queue. The request is normally
1815
 
added as the last in the queue, but if there are no waiting lock requests
1816
 
on the record, and the request to be added is not a waiting request, we
1817
 
can reuse a suitable record lock object already existing on the same page,
1818
 
just setting the appropriate bit in its bitmap. This is a low-level function
1819
 
which does NOT check for deadlocks or lock compatibility! */
1820
 
static
1821
 
lock_t*
1822
 
lock_rec_add_to_queue(
1823
 
/*==================*/
1824
 
                                        /* out: lock where the bit was set */
1825
 
        ulint                   type_mode,/* in: lock mode, wait, gap
1826
 
                                        etc. flags; type is ignored
1827
 
                                        and replaced by LOCK_REC */
1828
 
        const buf_block_t*      block,  /* in: buffer block containing
1829
 
                                        the record */
1830
 
        ulint                   heap_no,/* in: heap number of the record */
1831
 
        dict_index_t*           index,  /* in: index of record */
1832
 
        trx_t*                  trx)    /* in: transaction */
1833
 
{
1834
 
        lock_t* lock;
1835
 
 
1836
 
        ut_ad(mutex_own(&kernel_mutex));
1837
 
#ifdef UNIV_DEBUG
1838
 
        switch (type_mode & LOCK_MODE_MASK) {
1839
 
        case LOCK_X:
1840
 
        case LOCK_S:
1841
 
                break;
1842
 
        default:
1843
 
                ut_error;
1844
 
        }
1845
 
 
1846
 
        if (!(type_mode & (LOCK_WAIT | LOCK_GAP))) {
1847
 
                enum lock_mode  mode = (type_mode & LOCK_MODE_MASK) == LOCK_S
1848
 
                        ? LOCK_X
1849
 
                        : LOCK_S;
1850
 
                lock_t*         other_lock
1851
 
                        = lock_rec_other_has_expl_req(mode, 0, LOCK_WAIT,
1852
 
                                                      block, heap_no, trx);
1853
 
                ut_a(!other_lock);
1854
 
        }
1855
 
#endif /* UNIV_DEBUG */
1856
 
 
1857
 
        type_mode |= LOCK_REC;
1858
 
 
1859
 
        /* If rec is the supremum record, then we can reset the gap bit, as
1860
 
        all locks on the supremum are automatically of the gap type, and we
1861
 
        try to avoid unnecessary memory consumption of a new record lock
1862
 
        struct for a gap type lock */
1863
 
 
1864
 
        if (UNIV_UNLIKELY(heap_no == PAGE_HEAP_NO_SUPREMUM)) {
1865
 
                ut_ad(!(type_mode & LOCK_REC_NOT_GAP));
1866
 
 
1867
 
                /* There should never be LOCK_REC_NOT_GAP on a supremum
1868
 
                record, but let us play safe */
1869
 
 
1870
 
                type_mode = type_mode & ~(LOCK_GAP | LOCK_REC_NOT_GAP);
1871
 
        }
1872
 
 
1873
 
        /* Look for a waiting lock request on the same record or on a gap */
1874
 
 
1875
 
        lock = lock_rec_get_first_on_page(block);
1876
 
 
1877
 
        while (lock != NULL) {
1878
 
                if (lock_get_wait(lock)
1879
 
                    && (lock_rec_get_nth_bit(lock, heap_no))) {
1880
 
 
1881
 
                        goto somebody_waits;
1882
 
                }
1883
 
 
1884
 
                lock = lock_rec_get_next_on_page(lock);
1885
 
        }
1886
 
 
1887
 
        if (UNIV_LIKELY(!(type_mode & LOCK_WAIT))) {
1888
 
 
1889
 
                /* Look for a similar record lock on the same page:
1890
 
                if one is found and there are no waiting lock requests,
1891
 
                we can just set the bit */
1892
 
 
1893
 
                lock = lock_rec_find_similar_on_page(
1894
 
                        type_mode, heap_no,
1895
 
                        lock_rec_get_first_on_page(block), trx);
1896
 
 
1897
 
                if (lock) {
1898
 
 
1899
 
                        lock_rec_set_nth_bit(lock, heap_no);
1900
 
 
1901
 
                        return(lock);
1902
 
                }
1903
 
        }
1904
 
 
1905
 
somebody_waits:
1906
 
        return(lock_rec_create(type_mode, block, heap_no, index, trx));
1907
 
}
1908
 
 
1909
 
/*************************************************************************
1910
 
This is a fast routine for locking a record in the most common cases:
1911
 
there are no explicit locks on the page, or there is just one lock, owned
1912
 
by this transaction, and of the right type_mode. This is a low-level function
1913
 
which does NOT look at implicit locks! Checks lock compatibility within
1914
 
explicit locks. This function sets a normal next-key lock, or in the case of
1915
 
a page supremum record, a gap type lock. */
1916
 
UNIV_INLINE
1917
 
ibool
1918
 
lock_rec_lock_fast(
1919
 
/*===============*/
1920
 
                                        /* out: TRUE if locking succeeded */
1921
 
        ibool                   impl,   /* in: if TRUE, no lock is set
1922
 
                                        if no wait is necessary: we
1923
 
                                        assume that the caller will
1924
 
                                        set an implicit lock */
1925
 
        ulint                   mode,   /* in: lock mode: LOCK_X or
1926
 
                                        LOCK_S possibly ORed to either
1927
 
                                        LOCK_GAP or LOCK_REC_NOT_GAP */
1928
 
        const buf_block_t*      block,  /* in: buffer block containing
1929
 
                                        the record */
1930
 
        ulint                   heap_no,/* in: heap number of record */
1931
 
        dict_index_t*           index,  /* in: index of record */
1932
 
        que_thr_t*              thr)    /* in: query thread */
1933
 
{
1934
 
        lock_t* lock;
1935
 
        trx_t*  trx;
1936
 
 
1937
 
        ut_ad(mutex_own(&kernel_mutex));
1938
 
        ut_ad((LOCK_MODE_MASK & mode) != LOCK_S
1939
 
              || lock_table_has(thr_get_trx(thr), index->table, LOCK_IS));
1940
 
        ut_ad((LOCK_MODE_MASK & mode) != LOCK_X
1941
 
              || lock_table_has(thr_get_trx(thr), index->table, LOCK_IX));
1942
 
        ut_ad((LOCK_MODE_MASK & mode) == LOCK_S
1943
 
              || (LOCK_MODE_MASK & mode) == LOCK_X);
1944
 
        ut_ad(mode - (LOCK_MODE_MASK & mode) == LOCK_GAP
1945
 
              || mode - (LOCK_MODE_MASK & mode) == 0
1946
 
              || mode - (LOCK_MODE_MASK & mode) == LOCK_REC_NOT_GAP);
1947
 
 
1948
 
        lock = lock_rec_get_first_on_page(block);
1949
 
 
1950
 
        trx = thr_get_trx(thr);
1951
 
 
1952
 
        if (lock == NULL) {
1953
 
                if (!impl) {
1954
 
                        lock_rec_create(mode, block, heap_no, index, trx);
1955
 
 
1956
 
                        if (srv_locks_unsafe_for_binlog
1957
 
                            || trx->isolation_level
1958
 
                            == TRX_ISO_READ_COMMITTED) {
1959
 
                                trx_register_new_rec_lock(trx, index);
1960
 
                        }
1961
 
                }
1962
 
 
1963
 
                return(TRUE);
1964
 
        }
1965
 
 
1966
 
        if (lock_rec_get_next_on_page(lock)) {
1967
 
 
1968
 
                return(FALSE);
1969
 
        }
1970
 
 
1971
 
        if (lock->trx != trx
1972
 
            || lock->type_mode != (mode | LOCK_REC)
1973
 
            || lock_rec_get_n_bits(lock) <= heap_no) {
1974
 
 
1975
 
                return(FALSE);
1976
 
        }
1977
 
 
1978
 
        if (!impl) {
1979
 
                /* If the nth bit of the record lock is already set then we
1980
 
                do not set a new lock bit, otherwise we do set */
1981
 
 
1982
 
                if (!lock_rec_get_nth_bit(lock, heap_no)) {
1983
 
                        lock_rec_set_nth_bit(lock, heap_no);
1984
 
                        if (srv_locks_unsafe_for_binlog
1985
 
                            || trx->isolation_level
1986
 
                            == TRX_ISO_READ_COMMITTED) {
1987
 
                                trx_register_new_rec_lock(trx, index);
1988
 
                        }
1989
 
                }
1990
 
        }
1991
 
 
1992
 
        return(TRUE);
1993
 
}
1994
 
 
1995
 
/*************************************************************************
1996
 
This is the general, and slower, routine for locking a record. This is a
1997
 
low-level function which does NOT look at implicit locks! Checks lock
1998
 
compatibility within explicit locks. This function sets a normal next-key
1999
 
lock, or in the case of a page supremum record, a gap type lock. */
2000
 
static
2001
 
ulint
2002
 
lock_rec_lock_slow(
2003
 
/*===============*/
2004
 
                                        /* out: DB_SUCCESS,
2005
 
                                        DB_LOCK_WAIT, or error code */
2006
 
        ibool                   impl,   /* in: if TRUE, no lock is set
2007
 
                                        if no wait is necessary: we
2008
 
                                        assume that the caller will
2009
 
                                        set an implicit lock */
2010
 
        ulint                   mode,   /* in: lock mode: LOCK_X or
2011
 
                                        LOCK_S possibly ORed to either
2012
 
                                        LOCK_GAP or LOCK_REC_NOT_GAP */
2013
 
        const buf_block_t*      block,  /* in: buffer block containing
2014
 
                                        the record */
2015
 
        ulint                   heap_no,/* in: heap number of record */
2016
 
        dict_index_t*           index,  /* in: index of record */
2017
 
        que_thr_t*              thr)    /* in: query thread */
2018
 
{
2019
 
        trx_t*  trx;
2020
 
        ulint   err;
2021
 
 
2022
 
        ut_ad(mutex_own(&kernel_mutex));
2023
 
        ut_ad((LOCK_MODE_MASK & mode) != LOCK_S
2024
 
              || lock_table_has(thr_get_trx(thr), index->table, LOCK_IS));
2025
 
        ut_ad((LOCK_MODE_MASK & mode) != LOCK_X
2026
 
              || lock_table_has(thr_get_trx(thr), index->table, LOCK_IX));
2027
 
        ut_ad((LOCK_MODE_MASK & mode) == LOCK_S
2028
 
              || (LOCK_MODE_MASK & mode) == LOCK_X);
2029
 
        ut_ad(mode - (LOCK_MODE_MASK & mode) == LOCK_GAP
2030
 
              || mode - (LOCK_MODE_MASK & mode) == 0
2031
 
              || mode - (LOCK_MODE_MASK & mode) == LOCK_REC_NOT_GAP);
2032
 
 
2033
 
        trx = thr_get_trx(thr);
2034
 
 
2035
 
        if (lock_rec_has_expl(mode, block, heap_no, trx)) {
2036
 
                /* The trx already has a strong enough lock on rec: do
2037
 
                nothing */
2038
 
 
2039
 
                err = DB_SUCCESS;
2040
 
        } else if (lock_rec_other_has_conflicting(mode, block, heap_no, trx)) {
2041
 
 
2042
 
                /* If another transaction has a non-gap conflicting request in
2043
 
                the queue, as this transaction does not have a lock strong
2044
 
                enough already granted on the record, we have to wait. */
2045
 
 
2046
 
                err = lock_rec_enqueue_waiting(mode, block, heap_no,
2047
 
                                               index, thr);
2048
 
 
2049
 
                if (srv_locks_unsafe_for_binlog
2050
 
                    || trx->isolation_level == TRX_ISO_READ_COMMITTED) {
2051
 
                        trx_register_new_rec_lock(trx, index);
2052
 
                }
2053
 
        } else {
2054
 
                if (!impl) {
2055
 
                        /* Set the requested lock on the record */
2056
 
 
2057
 
                        lock_rec_add_to_queue(LOCK_REC | mode, block,
2058
 
                                              heap_no, index, trx);
2059
 
                        if (srv_locks_unsafe_for_binlog
2060
 
                            || trx->isolation_level
2061
 
                            == TRX_ISO_READ_COMMITTED) {
2062
 
                                trx_register_new_rec_lock(trx, index);
2063
 
                        }
2064
 
                }
2065
 
 
2066
 
                err = DB_SUCCESS;
2067
 
        }
2068
 
 
2069
 
        return(err);
2070
 
}
2071
 
 
2072
 
/*************************************************************************
2073
 
Tries to lock the specified record in the mode requested. If not immediately
2074
 
possible, enqueues a waiting lock request. This is a low-level function
2075
 
which does NOT look at implicit locks! Checks lock compatibility within
2076
 
explicit locks. This function sets a normal next-key lock, or in the case
2077
 
of a page supremum record, a gap type lock. */
2078
 
static
2079
 
ulint
2080
 
lock_rec_lock(
2081
 
/*==========*/
2082
 
                                        /* out: DB_SUCCESS,
2083
 
                                        DB_LOCK_WAIT, or error code */
2084
 
        ibool                   impl,   /* in: if TRUE, no lock is set
2085
 
                                        if no wait is necessary: we
2086
 
                                        assume that the caller will
2087
 
                                        set an implicit lock */
2088
 
        ulint                   mode,   /* in: lock mode: LOCK_X or
2089
 
                                        LOCK_S possibly ORed to either
2090
 
                                        LOCK_GAP or LOCK_REC_NOT_GAP */
2091
 
        const buf_block_t*      block,  /* in: buffer block containing
2092
 
                                        the record */
2093
 
        ulint                   heap_no,/* in: heap number of record */
2094
 
        dict_index_t*           index,  /* in: index of record */
2095
 
        que_thr_t*              thr)    /* in: query thread */
2096
 
{
2097
 
        ulint   err;
2098
 
 
2099
 
        ut_ad(mutex_own(&kernel_mutex));
2100
 
        ut_ad((LOCK_MODE_MASK & mode) != LOCK_S
2101
 
              || lock_table_has(thr_get_trx(thr), index->table, LOCK_IS));
2102
 
        ut_ad((LOCK_MODE_MASK & mode) != LOCK_X
2103
 
              || lock_table_has(thr_get_trx(thr), index->table, LOCK_IX));
2104
 
        ut_ad((LOCK_MODE_MASK & mode) == LOCK_S
2105
 
              || (LOCK_MODE_MASK & mode) == LOCK_X);
2106
 
        ut_ad(mode - (LOCK_MODE_MASK & mode) == LOCK_GAP
2107
 
              || mode - (LOCK_MODE_MASK & mode) == LOCK_REC_NOT_GAP
2108
 
              || mode - (LOCK_MODE_MASK & mode) == 0);
2109
 
 
2110
 
        if (lock_rec_lock_fast(impl, mode, block, heap_no, index, thr)) {
2111
 
 
2112
 
                /* We try a simplified and faster subroutine for the most
2113
 
                common cases */
2114
 
 
2115
 
                err = DB_SUCCESS;
2116
 
        } else {
2117
 
                err = lock_rec_lock_slow(impl, mode, block,
2118
 
                                         heap_no, index, thr);
2119
 
        }
2120
 
 
2121
 
        return(err);
2122
 
}
2123
 
 
2124
 
/*************************************************************************
2125
 
Checks if a waiting record lock request still has to wait in a queue. */
2126
 
static
2127
 
ibool
2128
 
lock_rec_has_to_wait_in_queue(
2129
 
/*==========================*/
2130
 
                                /* out: TRUE if still has to wait */
2131
 
        lock_t* wait_lock)      /* in: waiting record lock */
2132
 
{
2133
 
        lock_t* lock;
2134
 
        ulint   space;
2135
 
        ulint   page_no;
2136
 
        ulint   heap_no;
2137
 
 
2138
 
        ut_ad(mutex_own(&kernel_mutex));
2139
 
        ut_ad(lock_get_wait(wait_lock));
2140
 
        ut_ad(lock_get_type_low(wait_lock) == LOCK_REC);
2141
 
 
2142
 
        space = wait_lock->un_member.rec_lock.space;
2143
 
        page_no = wait_lock->un_member.rec_lock.page_no;
2144
 
        heap_no = lock_rec_find_set_bit(wait_lock);
2145
 
 
2146
 
        lock = lock_rec_get_first_on_page_addr(space, page_no);
2147
 
 
2148
 
        while (lock != wait_lock) {
2149
 
 
2150
 
                if (lock_rec_get_nth_bit(lock, heap_no)
2151
 
                    && lock_has_to_wait(wait_lock, lock)) {
2152
 
 
2153
 
                        return(TRUE);
2154
 
                }
2155
 
 
2156
 
                lock = lock_rec_get_next_on_page(lock);
2157
 
        }
2158
 
 
2159
 
        return(FALSE);
2160
 
}
2161
 
 
2162
 
/*****************************************************************
2163
 
Grants a lock to a waiting lock request and releases the waiting
2164
 
transaction. */
2165
 
static
2166
 
void
2167
 
lock_grant(
2168
 
/*=======*/
2169
 
        lock_t* lock)   /* in: waiting lock request */
2170
 
{
2171
 
        ut_ad(mutex_own(&kernel_mutex));
2172
 
 
2173
 
        lock_reset_lock_and_trx_wait(lock);
2174
 
 
2175
 
        if (lock_get_mode(lock) == LOCK_AUTO_INC) {
2176
 
 
2177
 
                if (lock->trx->auto_inc_lock != NULL) {
2178
 
                        fprintf(stderr,
2179
 
                                "InnoDB: Error: trx already had"
2180
 
                                " an AUTO-INC lock!\n");
2181
 
                }
2182
 
 
2183
 
                /* Store pointer to lock to trx so that we know to
2184
 
                release it at the end of the SQL statement */
2185
 
 
2186
 
                lock->trx->auto_inc_lock = lock;
2187
 
        }
2188
 
 
2189
 
#ifdef UNIV_DEBUG
2190
 
        if (lock_print_waits) {
2191
 
                fprintf(stderr, "Lock wait for trx %lu ends\n",
2192
 
                        (ulong) ut_dulint_get_low(lock->trx->id));
2193
 
        }
2194
 
#endif /* UNIV_DEBUG */
2195
 
 
2196
 
        /* If we are resolving a deadlock by choosing another transaction
2197
 
        as a victim, then our original transaction may not be in the
2198
 
        TRX_QUE_LOCK_WAIT state, and there is no need to end the lock wait
2199
 
        for it */
2200
 
 
2201
 
        if (lock->trx->que_state == TRX_QUE_LOCK_WAIT) {
2202
 
                trx_end_lock_wait(lock->trx);
2203
 
        }
2204
 
}
2205
 
 
2206
 
/*****************************************************************
2207
 
Cancels a waiting record lock request and releases the waiting transaction
2208
 
that requested it. NOTE: does NOT check if waiting lock requests behind this
2209
 
one can now be granted! */
2210
 
static
2211
 
void
2212
 
lock_rec_cancel(
2213
 
/*============*/
2214
 
        lock_t* lock)   /* in: waiting record lock request */
2215
 
{
2216
 
        ut_ad(mutex_own(&kernel_mutex));
2217
 
        ut_ad(lock_get_type_low(lock) == LOCK_REC);
2218
 
 
2219
 
        /* Reset the bit (there can be only one set bit) in the lock bitmap */
2220
 
        lock_rec_reset_nth_bit(lock, lock_rec_find_set_bit(lock));
2221
 
 
2222
 
        /* Reset the wait flag and the back pointer to lock in trx */
2223
 
 
2224
 
        lock_reset_lock_and_trx_wait(lock);
2225
 
 
2226
 
        /* The following function releases the trx from lock wait */
2227
 
 
2228
 
        trx_end_lock_wait(lock->trx);
2229
 
}
2230
 
 
2231
 
/*****************************************************************
2232
 
Removes a record lock request, waiting or granted, from the queue and
2233
 
grants locks to other transactions in the queue if they now are entitled
2234
 
to a lock. NOTE: all record locks contained in in_lock are removed. */
2235
 
static
2236
 
void
2237
 
lock_rec_dequeue_from_page(
2238
 
/*=======================*/
2239
 
        lock_t* in_lock)/* in: record lock object: all record locks which
2240
 
                        are contained in this lock object are removed;
2241
 
                        transactions waiting behind will get their lock
2242
 
                        requests granted, if they are now qualified to it */
2243
 
{
2244
 
        ulint   space;
2245
 
        ulint   page_no;
2246
 
        lock_t* lock;
2247
 
        trx_t*  trx;
2248
 
 
2249
 
        ut_ad(mutex_own(&kernel_mutex));
2250
 
        ut_ad(lock_get_type_low(in_lock) == LOCK_REC);
2251
 
 
2252
 
        trx = in_lock->trx;
2253
 
 
2254
 
        space = in_lock->un_member.rec_lock.space;
2255
 
        page_no = in_lock->un_member.rec_lock.page_no;
2256
 
 
2257
 
        HASH_DELETE(lock_t, hash, lock_sys->rec_hash,
2258
 
                    lock_rec_fold(space, page_no), in_lock);
2259
 
 
2260
 
        UT_LIST_REMOVE(trx_locks, trx->trx_locks, in_lock);
2261
 
 
2262
 
        /* Check if waiting locks in the queue can now be granted: grant
2263
 
        locks if there are no conflicting locks ahead. */
2264
 
 
2265
 
        lock = lock_rec_get_first_on_page_addr(space, page_no);
2266
 
 
2267
 
        while (lock != NULL) {
2268
 
                if (lock_get_wait(lock)
2269
 
                    && !lock_rec_has_to_wait_in_queue(lock)) {
2270
 
 
2271
 
                        /* Grant the lock */
2272
 
                        lock_grant(lock);
2273
 
                }
2274
 
 
2275
 
                lock = lock_rec_get_next_on_page(lock);
2276
 
        }
2277
 
}
2278
 
 
2279
 
/*****************************************************************
2280
 
Removes a record lock request, waiting or granted, from the queue. */
2281
 
static
2282
 
void
2283
 
lock_rec_discard(
2284
 
/*=============*/
2285
 
        lock_t* in_lock)/* in: record lock object: all record locks which
2286
 
                        are contained in this lock object are removed */
2287
 
{
2288
 
        ulint   space;
2289
 
        ulint   page_no;
2290
 
        trx_t*  trx;
2291
 
 
2292
 
        ut_ad(mutex_own(&kernel_mutex));
2293
 
        ut_ad(lock_get_type_low(in_lock) == LOCK_REC);
2294
 
 
2295
 
        trx = in_lock->trx;
2296
 
 
2297
 
        space = in_lock->un_member.rec_lock.space;
2298
 
        page_no = in_lock->un_member.rec_lock.page_no;
2299
 
 
2300
 
        HASH_DELETE(lock_t, hash, lock_sys->rec_hash,
2301
 
                    lock_rec_fold(space, page_no), in_lock);
2302
 
 
2303
 
        UT_LIST_REMOVE(trx_locks, trx->trx_locks, in_lock);
2304
 
}
2305
 
 
2306
 
/*****************************************************************
2307
 
Removes record lock objects set on an index page which is discarded. This
2308
 
function does not move locks, or check for waiting locks, therefore the
2309
 
lock bitmaps must already be reset when this function is called. */
2310
 
static
2311
 
void
2312
 
lock_rec_free_all_from_discard_page(
2313
 
/*================================*/
2314
 
        const buf_block_t*      block)  /* in: page to be discarded */
2315
 
{
2316
 
        ulint   space;
2317
 
        ulint   page_no;
2318
 
        lock_t* lock;
2319
 
        lock_t* next_lock;
2320
 
 
2321
 
        ut_ad(mutex_own(&kernel_mutex));
2322
 
 
2323
 
        space = buf_block_get_space(block);
2324
 
        page_no = buf_block_get_page_no(block);
2325
 
 
2326
 
        lock = lock_rec_get_first_on_page_addr(space, page_no);
2327
 
 
2328
 
        while (lock != NULL) {
2329
 
                ut_ad(lock_rec_find_set_bit(lock) == ULINT_UNDEFINED);
2330
 
                ut_ad(!lock_get_wait(lock));
2331
 
 
2332
 
                next_lock = lock_rec_get_next_on_page(lock);
2333
 
 
2334
 
                lock_rec_discard(lock);
2335
 
 
2336
 
                lock = next_lock;
2337
 
        }
2338
 
}
2339
 
 
2340
 
/*============= RECORD LOCK MOVING AND INHERITING ===================*/
2341
 
 
2342
 
/*****************************************************************
2343
 
Resets the lock bits for a single record. Releases transactions waiting for
2344
 
lock requests here. */
2345
 
static
2346
 
void
2347
 
lock_rec_reset_and_release_wait(
2348
 
/*============================*/
2349
 
        const buf_block_t*      block,  /* in: buffer block containing
2350
 
                                        the record */
2351
 
        ulint                   heap_no)/* in: heap number of record */
2352
 
{
2353
 
        lock_t* lock;
2354
 
 
2355
 
        ut_ad(mutex_own(&kernel_mutex));
2356
 
 
2357
 
        lock = lock_rec_get_first(block, heap_no);
2358
 
 
2359
 
        while (lock != NULL) {
2360
 
                if (lock_get_wait(lock)) {
2361
 
                        lock_rec_cancel(lock);
2362
 
                } else {
2363
 
                        lock_rec_reset_nth_bit(lock, heap_no);
2364
 
                }
2365
 
 
2366
 
                lock = lock_rec_get_next(heap_no, lock);
2367
 
        }
2368
 
}
2369
 
 
2370
 
/*****************************************************************
2371
 
Makes a record to inherit the locks (except LOCK_INSERT_INTENTION type)
2372
 
of another record as gap type locks, but does not reset the lock bits of
2373
 
the other record. Also waiting lock requests on rec are inherited as
2374
 
GRANTED gap locks. */
2375
 
static
2376
 
void
2377
 
lock_rec_inherit_to_gap(
2378
 
/*====================*/
2379
 
        const buf_block_t*      heir_block,     /* in: block containing the
2380
 
                                                record which inherits */
2381
 
        const buf_block_t*      block,          /* in: block containing the
2382
 
                                                record from which inherited;
2383
 
                                                does NOT reset the locks on
2384
 
                                                this record */
2385
 
        ulint                   heir_heap_no,   /* in: heap_no of the
2386
 
                                                inheriting record */
2387
 
        ulint                   heap_no)        /* in: heap_no of the
2388
 
                                                donating record */
2389
 
{
2390
 
        lock_t* lock;
2391
 
 
2392
 
        ut_ad(mutex_own(&kernel_mutex));
2393
 
 
2394
 
        lock = lock_rec_get_first(block, heap_no);
2395
 
 
2396
 
        /* If srv_locks_unsafe_for_binlog is TRUE or session is using
2397
 
        READ COMMITTED isolation level, we do not want locks set
2398
 
        by an UPDATE or a DELETE to be inherited as gap type locks. But we
2399
 
        DO want S-locks set by a consistency constraint to be inherited also
2400
 
        then. */
2401
 
 
2402
 
        while (lock != NULL) {
2403
 
                if (!lock_rec_get_insert_intention(lock)
2404
 
                    && !((srv_locks_unsafe_for_binlog
2405
 
                          || lock->trx->isolation_level
2406
 
                          == TRX_ISO_READ_COMMITTED)
2407
 
                         && lock_get_mode(lock) == LOCK_X)) {
2408
 
 
2409
 
                        lock_rec_add_to_queue(LOCK_REC | LOCK_GAP
2410
 
                                              | lock_get_mode(lock),
2411
 
                                              heir_block, heir_heap_no,
2412
 
                                              lock->index, lock->trx);
2413
 
                }
2414
 
 
2415
 
                lock = lock_rec_get_next(heap_no, lock);
2416
 
        }
2417
 
}
2418
 
 
2419
 
/*****************************************************************
2420
 
Makes a record to inherit the gap locks (except LOCK_INSERT_INTENTION type)
2421
 
of another record as gap type locks, but does not reset the lock bits of the
2422
 
other record. Also waiting lock requests are inherited as GRANTED gap locks. */
2423
 
static
2424
 
void
2425
 
lock_rec_inherit_to_gap_if_gap_lock(
2426
 
/*================================*/
2427
 
        const buf_block_t*      block,          /* in: buffer block */
2428
 
        ulint                   heir_heap_no,   /* in: heap_no of
2429
 
                                                record which inherits */
2430
 
        ulint                   heap_no)        /* in: heap_no of record
2431
 
                                                from which inherited;
2432
 
                                                does NOT reset the locks
2433
 
                                                on this record */
2434
 
{
2435
 
        lock_t* lock;
2436
 
 
2437
 
        ut_ad(mutex_own(&kernel_mutex));
2438
 
 
2439
 
        lock = lock_rec_get_first(block, heap_no);
2440
 
 
2441
 
        while (lock != NULL) {
2442
 
                if (!lock_rec_get_insert_intention(lock)
2443
 
                    && (heap_no == PAGE_HEAP_NO_SUPREMUM
2444
 
                        || !lock_rec_get_rec_not_gap(lock))) {
2445
 
 
2446
 
                        lock_rec_add_to_queue(LOCK_REC | LOCK_GAP
2447
 
                                              | lock_get_mode(lock),
2448
 
                                              block, heir_heap_no,
2449
 
                                              lock->index, lock->trx);
2450
 
                }
2451
 
 
2452
 
                lock = lock_rec_get_next(heap_no, lock);
2453
 
        }
2454
 
}
2455
 
 
2456
 
/*****************************************************************
2457
 
Moves the locks of a record to another record and resets the lock bits of
2458
 
the donating record. */
2459
 
static
2460
 
void
2461
 
lock_rec_move(
2462
 
/*==========*/
2463
 
        const buf_block_t*      receiver,       /* in: buffer block containing
2464
 
                                                the receiving record */
2465
 
        const buf_block_t*      donator,        /* in: buffer block containing
2466
 
                                                the donating record */
2467
 
        ulint                   receiver_heap_no,/* in: heap_no of the record
2468
 
                                                which gets the locks; there
2469
 
                                                must be no lock requests
2470
 
                                                on it! */
2471
 
        ulint                   donator_heap_no)/* in: heap_no of the record
2472
 
                                                which gives the locks */
2473
 
{
2474
 
        lock_t* lock;
2475
 
 
2476
 
        ut_ad(mutex_own(&kernel_mutex));
2477
 
 
2478
 
        lock = lock_rec_get_first(donator, donator_heap_no);
2479
 
 
2480
 
        ut_ad(lock_rec_get_first(receiver, receiver_heap_no) == NULL);
2481
 
 
2482
 
        while (lock != NULL) {
2483
 
                const ulint     type_mode = lock->type_mode;
2484
 
 
2485
 
                lock_rec_reset_nth_bit(lock, donator_heap_no);
2486
 
 
2487
 
                if (UNIV_UNLIKELY(type_mode & LOCK_WAIT)) {
2488
 
                        lock_reset_lock_and_trx_wait(lock);
2489
 
                }
2490
 
 
2491
 
                /* Note that we FIRST reset the bit, and then set the lock:
2492
 
                the function works also if donator == receiver */
2493
 
 
2494
 
                lock_rec_add_to_queue(type_mode, receiver, receiver_heap_no,
2495
 
                                      lock->index, lock->trx);
2496
 
                lock = lock_rec_get_next(donator_heap_no, lock);
2497
 
        }
2498
 
 
2499
 
        ut_ad(lock_rec_get_first(donator, donator_heap_no) == NULL);
2500
 
}
2501
 
 
2502
 
/*****************************************************************
2503
 
Updates the lock table when we have reorganized a page. NOTE: we copy
2504
 
also the locks set on the infimum of the page; the infimum may carry
2505
 
locks if an update of a record is occurring on the page, and its locks
2506
 
were temporarily stored on the infimum. */
2507
 
UNIV_INTERN
2508
 
void
2509
 
lock_move_reorganize_page(
2510
 
/*======================*/
2511
 
        const buf_block_t*      block,  /* in: old index page, now
2512
 
                                        reorganized */
2513
 
        const buf_block_t*      oblock) /* in: copy of the old, not
2514
 
                                        reorganized page */
2515
 
{
2516
 
        lock_t*         lock;
2517
 
        UT_LIST_BASE_NODE_T(lock_t)     old_locks;
2518
 
        mem_heap_t*     heap            = NULL;
2519
 
        ulint           comp;
2520
 
 
2521
 
        lock_mutex_enter_kernel();
2522
 
 
2523
 
        lock = lock_rec_get_first_on_page(block);
2524
 
 
2525
 
        if (lock == NULL) {
2526
 
                lock_mutex_exit_kernel();
2527
 
 
2528
 
                return;
2529
 
        }
2530
 
 
2531
 
        heap = mem_heap_create(256);
2532
 
 
2533
 
        /* Copy first all the locks on the page to heap and reset the
2534
 
        bitmaps in the original locks; chain the copies of the locks
2535
 
        using the trx_locks field in them. */
2536
 
 
2537
 
        UT_LIST_INIT(old_locks);
2538
 
 
2539
 
        do {
2540
 
                /* Make a copy of the lock */
2541
 
                lock_t* old_lock = lock_rec_copy(lock, heap);
2542
 
 
2543
 
                UT_LIST_ADD_LAST(trx_locks, old_locks, old_lock);
2544
 
 
2545
 
                /* Reset bitmap of lock */
2546
 
                lock_rec_bitmap_reset(lock);
2547
 
 
2548
 
                if (lock_get_wait(lock)) {
2549
 
                        lock_reset_lock_and_trx_wait(lock);
2550
 
                }
2551
 
 
2552
 
                lock = lock_rec_get_next_on_page(lock);
2553
 
        } while (lock != NULL);
2554
 
 
2555
 
        comp = page_is_comp(block->frame);
2556
 
        ut_ad(comp == page_is_comp(oblock->frame));
2557
 
 
2558
 
        for (lock = UT_LIST_GET_FIRST(old_locks); lock;
2559
 
             lock = UT_LIST_GET_NEXT(trx_locks, lock)) {
2560
 
                /* NOTE: we copy also the locks set on the infimum and
2561
 
                supremum of the page; the infimum may carry locks if an
2562
 
                update of a record is occurring on the page, and its locks
2563
 
                were temporarily stored on the infimum */
2564
 
                page_cur_t      cur1;
2565
 
                page_cur_t      cur2;
2566
 
 
2567
 
                page_cur_set_before_first(block, &cur1);
2568
 
                page_cur_set_before_first(oblock, &cur2);
2569
 
 
2570
 
                /* Set locks according to old locks */
2571
 
                for (;;) {
2572
 
                        ulint   old_heap_no;
2573
 
                        ulint   new_heap_no;
2574
 
 
2575
 
                        ut_ad(comp || !memcmp(page_cur_get_rec(&cur1),
2576
 
                                              page_cur_get_rec(&cur2),
2577
 
                                              rec_get_data_size_old(
2578
 
                                                      page_cur_get_rec(
2579
 
                                                              &cur2))));
2580
 
                        if (UNIV_LIKELY(comp)) {
2581
 
                                old_heap_no = rec_get_heap_no_new(
2582
 
                                        page_cur_get_rec(&cur2));
2583
 
                                new_heap_no = rec_get_heap_no_new(
2584
 
                                        page_cur_get_rec(&cur1));
2585
 
                        } else {
2586
 
                                old_heap_no = rec_get_heap_no_old(
2587
 
                                        page_cur_get_rec(&cur2));
2588
 
                                new_heap_no = rec_get_heap_no_old(
2589
 
                                        page_cur_get_rec(&cur1));
2590
 
                        }
2591
 
 
2592
 
                        if (lock_rec_get_nth_bit(lock, old_heap_no)) {
2593
 
 
2594
 
                                /* Clear the bit in old_lock. */
2595
 
                                ut_d(lock_rec_reset_nth_bit(lock,
2596
 
                                                            old_heap_no));
2597
 
 
2598
 
                                /* NOTE that the old lock bitmap could be too
2599
 
                                small for the new heap number! */
2600
 
 
2601
 
                                lock_rec_add_to_queue(lock->type_mode, block,
2602
 
                                                      new_heap_no,
2603
 
                                                      lock->index, lock->trx);
2604
 
 
2605
 
                                /* if (new_heap_no == PAGE_HEAP_NO_SUPREMUM
2606
 
                                && lock_get_wait(lock)) {
2607
 
                                fprintf(stderr,
2608
 
                                "---\n--\n!!!Lock reorg: supr type %lu\n",
2609
 
                                lock->type_mode);
2610
 
                                } */
2611
 
                        }
2612
 
 
2613
 
                        if (UNIV_UNLIKELY
2614
 
                            (new_heap_no == PAGE_HEAP_NO_SUPREMUM)) {
2615
 
 
2616
 
                                ut_ad(old_heap_no == PAGE_HEAP_NO_SUPREMUM);
2617
 
                                break;
2618
 
                        }
2619
 
 
2620
 
                        page_cur_move_to_next(&cur1);
2621
 
                        page_cur_move_to_next(&cur2);
2622
 
                }
2623
 
 
2624
 
#ifdef UNIV_DEBUG
2625
 
                {
2626
 
                        ulint   i = lock_rec_find_set_bit(lock);
2627
 
 
2628
 
                        /* Check that all locks were moved. */
2629
 
                        if (UNIV_UNLIKELY(i != ULINT_UNDEFINED)) {
2630
 
                                fprintf(stderr,
2631
 
                                        "lock_move_reorganize_page():"
2632
 
                                        " %lu not moved in %p\n",
2633
 
                                        (ulong) i, (void*) lock);
2634
 
                                ut_error;
2635
 
                        }
2636
 
                }
2637
 
#endif /* UNIV_DEBUG */
2638
 
        }
2639
 
 
2640
 
        lock_mutex_exit_kernel();
2641
 
 
2642
 
        mem_heap_free(heap);
2643
 
 
2644
 
#ifdef UNIV_DEBUG_LOCK_VALIDATE
2645
 
        ut_ad(lock_rec_validate_page(buf_block_get_space(block),
2646
 
                                     buf_block_get_page_no(block)));
2647
 
#endif
2648
 
}
2649
 
 
2650
 
/*****************************************************************
2651
 
Moves the explicit locks on user records to another page if a record
2652
 
list end is moved to another page. */
2653
 
UNIV_INTERN
2654
 
void
2655
 
lock_move_rec_list_end(
2656
 
/*===================*/
2657
 
        const buf_block_t*      new_block,      /* in: index page to move to */
2658
 
        const buf_block_t*      block,          /* in: index page */
2659
 
        const rec_t*            rec)            /* in: record on page: this
2660
 
                                                is the first record moved */
2661
 
{
2662
 
        lock_t*         lock;
2663
 
        const ulint     comp    = page_rec_is_comp(rec);
2664
 
 
2665
 
        lock_mutex_enter_kernel();
2666
 
 
2667
 
        /* Note: when we move locks from record to record, waiting locks
2668
 
        and possible granted gap type locks behind them are enqueued in
2669
 
        the original order, because new elements are inserted to a hash
2670
 
        table to the end of the hash chain, and lock_rec_add_to_queue
2671
 
        does not reuse locks if there are waiters in the queue. */
2672
 
 
2673
 
        for (lock = lock_rec_get_first_on_page(block); lock;
2674
 
             lock = lock_rec_get_next_on_page(lock)) {
2675
 
                page_cur_t      cur1;
2676
 
                page_cur_t      cur2;
2677
 
                const ulint     type_mode = lock->type_mode;
2678
 
 
2679
 
                page_cur_position(rec, block, &cur1);
2680
 
 
2681
 
                if (page_cur_is_before_first(&cur1)) {
2682
 
                        page_cur_move_to_next(&cur1);
2683
 
                }
2684
 
 
2685
 
                page_cur_set_before_first(new_block, &cur2);
2686
 
                page_cur_move_to_next(&cur2);
2687
 
 
2688
 
                /* Copy lock requests on user records to new page and
2689
 
                reset the lock bits on the old */
2690
 
 
2691
 
                while (!page_cur_is_after_last(&cur1)) {
2692
 
                        ulint   heap_no;
2693
 
 
2694
 
                        if (comp) {
2695
 
                                heap_no = rec_get_heap_no_new(
2696
 
                                        page_cur_get_rec(&cur1));
2697
 
                        } else {
2698
 
                                heap_no = rec_get_heap_no_old(
2699
 
                                        page_cur_get_rec(&cur1));
2700
 
                                ut_ad(!memcmp(page_cur_get_rec(&cur1),
2701
 
                                         page_cur_get_rec(&cur2),
2702
 
                                         rec_get_data_size_old(
2703
 
                                                 page_cur_get_rec(&cur2))));
2704
 
                        }
2705
 
 
2706
 
                        if (lock_rec_get_nth_bit(lock, heap_no)) {
2707
 
                                lock_rec_reset_nth_bit(lock, heap_no);
2708
 
 
2709
 
                                if (UNIV_UNLIKELY(type_mode & LOCK_WAIT)) {
2710
 
                                        lock_reset_lock_and_trx_wait(lock);
2711
 
                                }
2712
 
 
2713
 
                                if (comp) {
2714
 
                                        heap_no = rec_get_heap_no_new(
2715
 
                                                page_cur_get_rec(&cur2));
2716
 
                                } else {
2717
 
                                        heap_no = rec_get_heap_no_old(
2718
 
                                                page_cur_get_rec(&cur2));
2719
 
                                }
2720
 
 
2721
 
                                lock_rec_add_to_queue(type_mode,
2722
 
                                                      new_block, heap_no,
2723
 
                                                      lock->index, lock->trx);
2724
 
                        }
2725
 
 
2726
 
                        page_cur_move_to_next(&cur1);
2727
 
                        page_cur_move_to_next(&cur2);
2728
 
                }
2729
 
        }
2730
 
 
2731
 
        lock_mutex_exit_kernel();
2732
 
 
2733
 
#ifdef UNIV_DEBUG_LOCK_VALIDATE
2734
 
        ut_ad(lock_rec_validate_page(buf_block_get_space(block),
2735
 
                                     buf_block_get_page_no(block)));
2736
 
        ut_ad(lock_rec_validate_page(buf_block_get_space(new_block),
2737
 
                                     buf_block_get_page_no(new_block)));
2738
 
#endif
2739
 
}
2740
 
 
2741
 
/*****************************************************************
2742
 
Moves the explicit locks on user records to another page if a record
2743
 
list start is moved to another page. */
2744
 
UNIV_INTERN
2745
 
void
2746
 
lock_move_rec_list_start(
2747
 
/*=====================*/
2748
 
        const buf_block_t*      new_block,      /* in: index page to move to */
2749
 
        const buf_block_t*      block,          /* in: index page */
2750
 
        const rec_t*            rec,            /* in: record on page:
2751
 
                                                this is the first
2752
 
                                                record NOT copied */
2753
 
        const rec_t*            old_end)        /* in: old
2754
 
                                                previous-to-last
2755
 
                                                record on new_page
2756
 
                                                before the records
2757
 
                                                were copied */
2758
 
{
2759
 
        lock_t*         lock;
2760
 
        const ulint     comp    = page_rec_is_comp(rec);
2761
 
 
2762
 
        ut_ad(block->frame == page_align(rec));
2763
 
        ut_ad(new_block->frame == page_align(old_end));
2764
 
 
2765
 
        lock_mutex_enter_kernel();
2766
 
 
2767
 
        for (lock = lock_rec_get_first_on_page(block); lock;
2768
 
             lock = lock_rec_get_next_on_page(lock)) {
2769
 
                page_cur_t      cur1;
2770
 
                page_cur_t      cur2;
2771
 
                const ulint     type_mode = lock->type_mode;
2772
 
 
2773
 
                page_cur_set_before_first(block, &cur1);
2774
 
                page_cur_move_to_next(&cur1);
2775
 
 
2776
 
                page_cur_position(old_end, new_block, &cur2);
2777
 
                page_cur_move_to_next(&cur2);
2778
 
 
2779
 
                /* Copy lock requests on user records to new page and
2780
 
                reset the lock bits on the old */
2781
 
 
2782
 
                while (page_cur_get_rec(&cur1) != rec) {
2783
 
                        ulint   heap_no;
2784
 
 
2785
 
                        if (comp) {
2786
 
                                heap_no = rec_get_heap_no_new(
2787
 
                                        page_cur_get_rec(&cur1));
2788
 
                        } else {
2789
 
                                heap_no = rec_get_heap_no_old(
2790
 
                                        page_cur_get_rec(&cur1));
2791
 
                                ut_ad(!memcmp(page_cur_get_rec(&cur1),
2792
 
                                              page_cur_get_rec(&cur2),
2793
 
                                              rec_get_data_size_old(
2794
 
                                                      page_cur_get_rec(
2795
 
                                                              &cur2))));
2796
 
                        }
2797
 
 
2798
 
                        if (lock_rec_get_nth_bit(lock, heap_no)) {
2799
 
                                lock_rec_reset_nth_bit(lock, heap_no);
2800
 
 
2801
 
                                if (UNIV_UNLIKELY(type_mode & LOCK_WAIT)) {
2802
 
                                        lock_reset_lock_and_trx_wait(lock);
2803
 
                                }
2804
 
 
2805
 
                                if (comp) {
2806
 
                                        heap_no = rec_get_heap_no_new(
2807
 
                                                page_cur_get_rec(&cur2));
2808
 
                                } else {
2809
 
                                        heap_no = rec_get_heap_no_old(
2810
 
                                                page_cur_get_rec(&cur2));
2811
 
                                }
2812
 
 
2813
 
                                lock_rec_add_to_queue(type_mode,
2814
 
                                                      new_block, heap_no,
2815
 
                                                      lock->index, lock->trx);
2816
 
                        }
2817
 
 
2818
 
                        page_cur_move_to_next(&cur1);
2819
 
                        page_cur_move_to_next(&cur2);
2820
 
                }
2821
 
 
2822
 
#ifdef UNIV_DEBUG
2823
 
                if (page_rec_is_supremum(rec)) {
2824
 
                        ulint   i;
2825
 
 
2826
 
                        for (i = PAGE_HEAP_NO_USER_LOW;
2827
 
                             i < lock_rec_get_n_bits(lock); i++) {
2828
 
                                if (UNIV_UNLIKELY
2829
 
                                    (lock_rec_get_nth_bit(lock, i))) {
2830
 
 
2831
 
                                        fprintf(stderr,
2832
 
                                                "lock_move_rec_list_start():"
2833
 
                                                " %lu not moved in %p\n",
2834
 
                                                (ulong) i, (void*) lock);
2835
 
                                        ut_error;
2836
 
                                }
2837
 
                        }
2838
 
                }
2839
 
#endif /* UNIV_DEBUG */
2840
 
        }
2841
 
 
2842
 
        lock_mutex_exit_kernel();
2843
 
 
2844
 
#ifdef UNIV_DEBUG_LOCK_VALIDATE
2845
 
        ut_ad(lock_rec_validate_page(buf_block_get_space(block),
2846
 
                                     buf_block_get_page_no(block)));
2847
 
#endif
2848
 
}
2849
 
 
2850
 
/*****************************************************************
2851
 
Updates the lock table when a page is split to the right. */
2852
 
UNIV_INTERN
2853
 
void
2854
 
lock_update_split_right(
2855
 
/*====================*/
2856
 
        const buf_block_t*      right_block,    /* in: right page */
2857
 
        const buf_block_t*      left_block)     /* in: left page */
2858
 
{
2859
 
        ulint   heap_no = lock_get_min_heap_no(right_block);
2860
 
 
2861
 
        lock_mutex_enter_kernel();
2862
 
 
2863
 
        /* Move the locks on the supremum of the left page to the supremum
2864
 
        of the right page */
2865
 
 
2866
 
        lock_rec_move(right_block, left_block,
2867
 
                      PAGE_HEAP_NO_SUPREMUM, PAGE_HEAP_NO_SUPREMUM);
2868
 
 
2869
 
        /* Inherit the locks to the supremum of left page from the successor
2870
 
        of the infimum on right page */
2871
 
 
2872
 
        lock_rec_inherit_to_gap(left_block, right_block,
2873
 
                                PAGE_HEAP_NO_SUPREMUM, heap_no);
2874
 
 
2875
 
        lock_mutex_exit_kernel();
2876
 
}
2877
 
 
2878
 
/*****************************************************************
2879
 
Updates the lock table when a page is merged to the right. */
2880
 
UNIV_INTERN
2881
 
void
2882
 
lock_update_merge_right(
2883
 
/*====================*/
2884
 
        const buf_block_t*      right_block,    /* in: right page to
2885
 
                                                which merged */
2886
 
        const rec_t*            orig_succ,      /* in: original
2887
 
                                                successor of infimum
2888
 
                                                on the right page
2889
 
                                                before merge */
2890
 
        const buf_block_t*      left_block)     /* in: merged index
2891
 
                                                page which will be
2892
 
                                                discarded */
2893
 
{
2894
 
        lock_mutex_enter_kernel();
2895
 
 
2896
 
        /* Inherit the locks from the supremum of the left page to the
2897
 
        original successor of infimum on the right page, to which the left
2898
 
        page was merged */
2899
 
 
2900
 
        lock_rec_inherit_to_gap(right_block, left_block,
2901
 
                                page_rec_get_heap_no(orig_succ),
2902
 
                                PAGE_HEAP_NO_SUPREMUM);
2903
 
 
2904
 
        /* Reset the locks on the supremum of the left page, releasing
2905
 
        waiting transactions */
2906
 
 
2907
 
        lock_rec_reset_and_release_wait(left_block,
2908
 
                                        PAGE_HEAP_NO_SUPREMUM);
2909
 
 
2910
 
        lock_rec_free_all_from_discard_page(left_block);
2911
 
 
2912
 
        lock_mutex_exit_kernel();
2913
 
}
2914
 
 
2915
 
/*****************************************************************
2916
 
Updates the lock table when the root page is copied to another in
2917
 
btr_root_raise_and_insert. Note that we leave lock structs on the
2918
 
root page, even though they do not make sense on other than leaf
2919
 
pages: the reason is that in a pessimistic update the infimum record
2920
 
of the root page will act as a dummy carrier of the locks of the record
2921
 
to be updated. */
2922
 
UNIV_INTERN
2923
 
void
2924
 
lock_update_root_raise(
2925
 
/*===================*/
2926
 
        const buf_block_t*      block,  /* in: index page to which copied */
2927
 
        const buf_block_t*      root)   /* in: root page */
2928
 
{
2929
 
        lock_mutex_enter_kernel();
2930
 
 
2931
 
        /* Move the locks on the supremum of the root to the supremum
2932
 
        of block */
2933
 
 
2934
 
        lock_rec_move(block, root,
2935
 
                      PAGE_HEAP_NO_SUPREMUM, PAGE_HEAP_NO_SUPREMUM);
2936
 
        lock_mutex_exit_kernel();
2937
 
}
2938
 
 
2939
 
/*****************************************************************
2940
 
Updates the lock table when a page is copied to another and the original page
2941
 
is removed from the chain of leaf pages, except if page is the root! */
2942
 
UNIV_INTERN
2943
 
void
2944
 
lock_update_copy_and_discard(
2945
 
/*=========================*/
2946
 
        const buf_block_t*      new_block,      /* in: index page to
2947
 
                                                which copied */
2948
 
        const buf_block_t*      block)          /* in: index page;
2949
 
                                                NOT the root! */
2950
 
{
2951
 
        lock_mutex_enter_kernel();
2952
 
 
2953
 
        /* Move the locks on the supremum of the old page to the supremum
2954
 
        of new_page */
2955
 
 
2956
 
        lock_rec_move(new_block, block,
2957
 
                      PAGE_HEAP_NO_SUPREMUM, PAGE_HEAP_NO_SUPREMUM);
2958
 
        lock_rec_free_all_from_discard_page(block);
2959
 
 
2960
 
        lock_mutex_exit_kernel();
2961
 
}
2962
 
 
2963
 
/*****************************************************************
2964
 
Updates the lock table when a page is split to the left. */
2965
 
UNIV_INTERN
2966
 
void
2967
 
lock_update_split_left(
2968
 
/*===================*/
2969
 
        const buf_block_t*      right_block,    /* in: right page */
2970
 
        const buf_block_t*      left_block)     /* in: left page */
2971
 
{
2972
 
        ulint   heap_no = lock_get_min_heap_no(right_block);
2973
 
 
2974
 
        lock_mutex_enter_kernel();
2975
 
 
2976
 
        /* Inherit the locks to the supremum of the left page from the
2977
 
        successor of the infimum on the right page */
2978
 
 
2979
 
        lock_rec_inherit_to_gap(left_block, right_block,
2980
 
                                PAGE_HEAP_NO_SUPREMUM, heap_no);
2981
 
 
2982
 
        lock_mutex_exit_kernel();
2983
 
}
2984
 
 
2985
 
/*****************************************************************
2986
 
Updates the lock table when a page is merged to the left. */
2987
 
UNIV_INTERN
2988
 
void
2989
 
lock_update_merge_left(
2990
 
/*===================*/
2991
 
        const buf_block_t*      left_block,     /* in: left page to
2992
 
                                                which merged */
2993
 
        const rec_t*            orig_pred,      /* in: original predecessor
2994
 
                                                of supremum on the left page
2995
 
                                                before merge */
2996
 
        const buf_block_t*      right_block)    /* in: merged index page
2997
 
                                                which will be discarded */
2998
 
{
2999
 
        const rec_t*    left_next_rec;
3000
 
 
3001
 
        ut_ad(left_block->frame == page_align(orig_pred));
3002
 
 
3003
 
        lock_mutex_enter_kernel();
3004
 
 
3005
 
        left_next_rec = page_rec_get_next_const(orig_pred);
3006
 
 
3007
 
        if (!page_rec_is_supremum(left_next_rec)) {
3008
 
 
3009
 
                /* Inherit the locks on the supremum of the left page to the
3010
 
                first record which was moved from the right page */
3011
 
 
3012
 
                lock_rec_inherit_to_gap(left_block, left_block,
3013
 
                                        page_rec_get_heap_no(left_next_rec),
3014
 
                                        PAGE_HEAP_NO_SUPREMUM);
3015
 
 
3016
 
                /* Reset the locks on the supremum of the left page,
3017
 
                releasing waiting transactions */
3018
 
 
3019
 
                lock_rec_reset_and_release_wait(left_block,
3020
 
                                                PAGE_HEAP_NO_SUPREMUM);
3021
 
        }
3022
 
 
3023
 
        /* Move the locks from the supremum of right page to the supremum
3024
 
        of the left page */
3025
 
 
3026
 
        lock_rec_move(left_block, right_block,
3027
 
                      PAGE_HEAP_NO_SUPREMUM, PAGE_HEAP_NO_SUPREMUM);
3028
 
 
3029
 
        lock_rec_free_all_from_discard_page(right_block);
3030
 
 
3031
 
        lock_mutex_exit_kernel();
3032
 
}
3033
 
 
3034
 
/*****************************************************************
3035
 
Resets the original locks on heir and replaces them with gap type locks
3036
 
inherited from rec. */
3037
 
UNIV_INTERN
3038
 
void
3039
 
lock_rec_reset_and_inherit_gap_locks(
3040
 
/*=================================*/
3041
 
        const buf_block_t*      heir_block,     /* in: block containing the
3042
 
                                                record which inherits */
3043
 
        const buf_block_t*      block,          /* in: block containing the
3044
 
                                                record from which inherited;
3045
 
                                                does NOT reset the locks on
3046
 
                                                this record */
3047
 
        ulint                   heir_heap_no,   /* in: heap_no of the
3048
 
                                                inheriting record */
3049
 
        ulint                   heap_no)        /* in: heap_no of the
3050
 
                                                donating record */
3051
 
{
3052
 
        mutex_enter(&kernel_mutex);
3053
 
 
3054
 
        lock_rec_reset_and_release_wait(heir_block, heir_heap_no);
3055
 
 
3056
 
        lock_rec_inherit_to_gap(heir_block, block, heir_heap_no, heap_no);
3057
 
 
3058
 
        mutex_exit(&kernel_mutex);
3059
 
}
3060
 
 
3061
 
/*****************************************************************
3062
 
Updates the lock table when a page is discarded. */
3063
 
UNIV_INTERN
3064
 
void
3065
 
lock_update_discard(
3066
 
/*================*/
3067
 
        const buf_block_t*      heir_block,     /* in: index page
3068
 
                                                which will inherit the locks */
3069
 
        ulint                   heir_heap_no,   /* in: heap_no of the record
3070
 
                                                which will inherit the locks */
3071
 
        const buf_block_t*      block)          /* in: index page
3072
 
                                                which will be discarded */
3073
 
{
3074
 
        const page_t*   page = block->frame;
3075
 
        const rec_t*    rec;
3076
 
        ulint           heap_no;
3077
 
 
3078
 
        lock_mutex_enter_kernel();
3079
 
 
3080
 
        if (!lock_rec_get_first_on_page(block)) {
3081
 
                /* No locks exist on page, nothing to do */
3082
 
 
3083
 
                lock_mutex_exit_kernel();
3084
 
 
3085
 
                return;
3086
 
        }
3087
 
 
3088
 
        /* Inherit all the locks on the page to the record and reset all
3089
 
        the locks on the page */
3090
 
 
3091
 
        if (page_is_comp(page)) {
3092
 
                rec = page + PAGE_NEW_INFIMUM;
3093
 
 
3094
 
                do {
3095
 
                        heap_no = rec_get_heap_no_new(rec);
3096
 
 
3097
 
                        lock_rec_inherit_to_gap(heir_block, block,
3098
 
                                                heir_heap_no, heap_no);
3099
 
 
3100
 
                        lock_rec_reset_and_release_wait(block, heap_no);
3101
 
 
3102
 
                        rec = page + rec_get_next_offs(rec, TRUE);
3103
 
                } while (heap_no != PAGE_HEAP_NO_SUPREMUM);
3104
 
        } else {
3105
 
                rec = page + PAGE_OLD_INFIMUM;
3106
 
 
3107
 
                do {
3108
 
                        heap_no = rec_get_heap_no_old(rec);
3109
 
 
3110
 
                        lock_rec_inherit_to_gap(heir_block, block,
3111
 
                                                heir_heap_no, heap_no);
3112
 
 
3113
 
                        lock_rec_reset_and_release_wait(block, heap_no);
3114
 
 
3115
 
                        rec = page + rec_get_next_offs(rec, FALSE);
3116
 
                } while (heap_no != PAGE_HEAP_NO_SUPREMUM);
3117
 
        }
3118
 
 
3119
 
        lock_rec_free_all_from_discard_page(block);
3120
 
 
3121
 
        lock_mutex_exit_kernel();
3122
 
}
3123
 
 
3124
 
/*****************************************************************
3125
 
Updates the lock table when a new user record is inserted. */
3126
 
UNIV_INTERN
3127
 
void
3128
 
lock_update_insert(
3129
 
/*===============*/
3130
 
        const buf_block_t*      block,  /* in: buffer block containing rec */
3131
 
        const rec_t*            rec)    /* in: the inserted record */
3132
 
{
3133
 
        ulint   receiver_heap_no;
3134
 
        ulint   donator_heap_no;
3135
 
 
3136
 
        ut_ad(block->frame == page_align(rec));
3137
 
 
3138
 
        /* Inherit the gap-locking locks for rec, in gap mode, from the next
3139
 
        record */
3140
 
 
3141
 
        if (page_rec_is_comp(rec)) {
3142
 
                receiver_heap_no = rec_get_heap_no_new(rec);
3143
 
                donator_heap_no = rec_get_heap_no_new(
3144
 
                        page_rec_get_next_low(rec, TRUE));
3145
 
        } else {
3146
 
                receiver_heap_no = rec_get_heap_no_old(rec);
3147
 
                donator_heap_no = rec_get_heap_no_old(
3148
 
                        page_rec_get_next_low(rec, FALSE));
3149
 
        }
3150
 
 
3151
 
        lock_mutex_enter_kernel();
3152
 
        lock_rec_inherit_to_gap_if_gap_lock(block,
3153
 
                                            receiver_heap_no, donator_heap_no);
3154
 
        lock_mutex_exit_kernel();
3155
 
}
3156
 
 
3157
 
/*****************************************************************
3158
 
Updates the lock table when a record is removed. */
3159
 
UNIV_INTERN
3160
 
void
3161
 
lock_update_delete(
3162
 
/*===============*/
3163
 
        const buf_block_t*      block,  /* in: buffer block containing rec */
3164
 
        const rec_t*            rec)    /* in: the record to be removed */
3165
 
{
3166
 
        const page_t*   page = block->frame;
3167
 
        ulint           heap_no;
3168
 
        ulint           next_heap_no;
3169
 
 
3170
 
        ut_ad(page == page_align(rec));
3171
 
 
3172
 
        if (page_is_comp(page)) {
3173
 
                heap_no = rec_get_heap_no_new(rec);
3174
 
                next_heap_no = rec_get_heap_no_new(page
3175
 
                                                   + rec_get_next_offs(rec,
3176
 
                                                                       TRUE));
3177
 
        } else {
3178
 
                heap_no = rec_get_heap_no_old(rec);
3179
 
                next_heap_no = rec_get_heap_no_old(page
3180
 
                                                   + rec_get_next_offs(rec,
3181
 
                                                                       FALSE));
3182
 
        }
3183
 
 
3184
 
        lock_mutex_enter_kernel();
3185
 
 
3186
 
        /* Let the next record inherit the locks from rec, in gap mode */
3187
 
 
3188
 
        lock_rec_inherit_to_gap(block, block, next_heap_no, heap_no);
3189
 
 
3190
 
        /* Reset the lock bits on rec and release waiting transactions */
3191
 
 
3192
 
        lock_rec_reset_and_release_wait(block, heap_no);
3193
 
 
3194
 
        lock_mutex_exit_kernel();
3195
 
}
3196
 
 
3197
 
/*************************************************************************
3198
 
Stores on the page infimum record the explicit locks of another record.
3199
 
This function is used to store the lock state of a record when it is
3200
 
updated and the size of the record changes in the update. The record
3201
 
is moved in such an update, perhaps to another page. The infimum record
3202
 
acts as a dummy carrier record, taking care of lock releases while the
3203
 
actual record is being moved. */
3204
 
UNIV_INTERN
3205
 
void
3206
 
lock_rec_store_on_page_infimum(
3207
 
/*===========================*/
3208
 
        const buf_block_t*      block,  /* in: buffer block containing rec */
3209
 
        const rec_t*            rec)    /* in: record whose lock state
3210
 
                                        is stored on the infimum
3211
 
                                        record of the same page; lock
3212
 
                                        bits are reset on the
3213
 
                                        record */
3214
 
{
3215
 
        ulint   heap_no = page_rec_get_heap_no(rec);
3216
 
 
3217
 
        ut_ad(block->frame == page_align(rec));
3218
 
 
3219
 
        lock_mutex_enter_kernel();
3220
 
 
3221
 
        lock_rec_move(block, block, PAGE_HEAP_NO_INFIMUM, heap_no);
3222
 
 
3223
 
        lock_mutex_exit_kernel();
3224
 
}
3225
 
 
3226
 
/*************************************************************************
3227
 
Restores the state of explicit lock requests on a single record, where the
3228
 
state was stored on the infimum of the page. */
3229
 
UNIV_INTERN
3230
 
void
3231
 
lock_rec_restore_from_page_infimum(
3232
 
/*===============================*/
3233
 
        const buf_block_t*      block,  /* in: buffer block containing rec */
3234
 
        const rec_t*            rec,    /* in: record whose lock state
3235
 
                                        is restored */
3236
 
        const buf_block_t*      donator)/* in: page (rec is not
3237
 
                                        necessarily on this page)
3238
 
                                        whose infimum stored the lock
3239
 
                                        state; lock bits are reset on
3240
 
                                        the infimum */
3241
 
{
3242
 
        ulint   heap_no = page_rec_get_heap_no(rec);
3243
 
 
3244
 
        lock_mutex_enter_kernel();
3245
 
 
3246
 
        lock_rec_move(block, donator, heap_no, PAGE_HEAP_NO_INFIMUM);
3247
 
 
3248
 
        lock_mutex_exit_kernel();
3249
 
}
3250
 
 
3251
 
/*=========== DEADLOCK CHECKING ======================================*/
3252
 
 
3253
 
/************************************************************************
3254
 
Checks if a lock request results in a deadlock. */
3255
 
static
3256
 
ibool
3257
 
lock_deadlock_occurs(
3258
 
/*=================*/
3259
 
                        /* out: TRUE if a deadlock was detected and we
3260
 
                        chose trx as a victim; FALSE if no deadlock, or
3261
 
                        there was a deadlock, but we chose other
3262
 
                        transaction(s) as victim(s) */
3263
 
        lock_t* lock,   /* in: lock the transaction is requesting */
3264
 
        trx_t*  trx)    /* in: transaction */
3265
 
{
3266
 
        dict_table_t*   table;
3267
 
        dict_index_t*   index;
3268
 
        trx_t*          mark_trx;
3269
 
        ulint           ret;
3270
 
        ulint           cost    = 0;
3271
 
 
3272
 
        ut_ad(trx);
3273
 
        ut_ad(lock);
3274
 
        ut_ad(mutex_own(&kernel_mutex));
3275
 
retry:
3276
 
        /* We check that adding this trx to the waits-for graph
3277
 
        does not produce a cycle. First mark all active transactions
3278
 
        with 0: */
3279
 
 
3280
 
        mark_trx = UT_LIST_GET_FIRST(trx_sys->trx_list);
3281
 
 
3282
 
        while (mark_trx) {
3283
 
                mark_trx->deadlock_mark = 0;
3284
 
                mark_trx = UT_LIST_GET_NEXT(trx_list, mark_trx);
3285
 
        }
3286
 
 
3287
 
        ret = lock_deadlock_recursive(trx, trx, lock, &cost, 0);
3288
 
 
3289
 
        if (ret == LOCK_VICTIM_IS_OTHER) {
3290
 
                /* We chose some other trx as a victim: retry if there still
3291
 
                is a deadlock */
3292
 
 
3293
 
                goto retry;
3294
 
        }
3295
 
 
3296
 
        if (UNIV_UNLIKELY(ret == LOCK_VICTIM_IS_START)) {
3297
 
                if (lock_get_type_low(lock) & LOCK_TABLE) {
3298
 
                        table = lock->un_member.tab_lock.table;
3299
 
                        index = NULL;
3300
 
                } else {
3301
 
                        index = lock->index;
3302
 
                        table = index->table;
3303
 
                }
3304
 
 
3305
 
                lock_deadlock_found = TRUE;
3306
 
 
3307
 
                fputs("*** WE ROLL BACK TRANSACTION (2)\n",
3308
 
                      lock_latest_err_file);
3309
 
 
3310
 
                return(TRUE);
3311
 
        }
3312
 
 
3313
 
        return(FALSE);
3314
 
}
3315
 
 
3316
 
/************************************************************************
3317
 
Looks recursively for a deadlock. */
3318
 
static
3319
 
ulint
3320
 
lock_deadlock_recursive(
3321
 
/*====================*/
3322
 
                                /* out: 0 if no deadlock found,
3323
 
                                LOCK_VICTIM_IS_START if there was a deadlock
3324
 
                                and we chose 'start' as the victim,
3325
 
                                LOCK_VICTIM_IS_OTHER if a deadlock
3326
 
                                was found and we chose some other trx as a
3327
 
                                victim: we must do the search again in this
3328
 
                                last case because there may be another
3329
 
                                deadlock! */
3330
 
        trx_t*  start,          /* in: recursion starting point */
3331
 
        trx_t*  trx,            /* in: a transaction waiting for a lock */
3332
 
        lock_t* wait_lock,      /* in: the lock trx is waiting to be granted */
3333
 
        ulint*  cost,           /* in/out: number of calculation steps thus
3334
 
                                far: if this exceeds LOCK_MAX_N_STEPS_...
3335
 
                                we return LOCK_VICTIM_IS_START */
3336
 
        ulint   depth)          /* in: recursion depth: if this exceeds
3337
 
                                LOCK_MAX_DEPTH_IN_DEADLOCK_CHECK, we
3338
 
                                return LOCK_VICTIM_IS_START */
3339
 
{
3340
 
        lock_t* lock;
3341
 
        ulint   bit_no          = ULINT_UNDEFINED;
3342
 
        trx_t*  lock_trx;
3343
 
        ulint   ret;
3344
 
 
3345
 
        ut_a(trx);
3346
 
        ut_a(start);
3347
 
        ut_a(wait_lock);
3348
 
        ut_ad(mutex_own(&kernel_mutex));
3349
 
 
3350
 
        if (trx->deadlock_mark == 1) {
3351
 
                /* We have already exhaustively searched the subtree starting
3352
 
                from this trx */
3353
 
 
3354
 
                return(0);
3355
 
        }
3356
 
 
3357
 
        *cost = *cost + 1;
3358
 
 
3359
 
        lock = wait_lock;
3360
 
 
3361
 
        if (lock_get_type_low(wait_lock) == LOCK_REC) {
3362
 
 
3363
 
                bit_no = lock_rec_find_set_bit(wait_lock);
3364
 
 
3365
 
                ut_a(bit_no != ULINT_UNDEFINED);
3366
 
        }
3367
 
 
3368
 
        /* Look at the locks ahead of wait_lock in the lock queue */
3369
 
 
3370
 
        for (;;) {
3371
 
                if (lock_get_type_low(lock) & LOCK_TABLE) {
3372
 
 
3373
 
                        lock = UT_LIST_GET_PREV(un_member.tab_lock.locks,
3374
 
                                                lock);
3375
 
                } else {
3376
 
                        ut_ad(lock_get_type_low(lock) == LOCK_REC);
3377
 
                        ut_a(bit_no != ULINT_UNDEFINED);
3378
 
 
3379
 
                        lock = (lock_t*) lock_rec_get_prev(lock, bit_no);
3380
 
                }
3381
 
 
3382
 
                if (lock == NULL) {
3383
 
                        /* We can mark this subtree as searched */
3384
 
                        trx->deadlock_mark = 1;
3385
 
 
3386
 
                        return(FALSE);
3387
 
                }
3388
 
 
3389
 
                if (lock_has_to_wait(wait_lock, lock)) {
3390
 
 
3391
 
                        ibool   too_far
3392
 
                                = depth > LOCK_MAX_DEPTH_IN_DEADLOCK_CHECK
3393
 
                                || *cost > LOCK_MAX_N_STEPS_IN_DEADLOCK_CHECK;
3394
 
 
3395
 
                        lock_trx = lock->trx;
3396
 
 
3397
 
                        if (lock_trx == start || too_far) {
3398
 
 
3399
 
                                /* We came back to the recursion starting
3400
 
                                point: a deadlock detected; or we have
3401
 
                                searched the waits-for graph too long */
3402
 
 
3403
 
                                FILE*   ef = lock_latest_err_file;
3404
 
 
3405
 
                                rewind(ef);
3406
 
                                ut_print_timestamp(ef);
3407
 
 
3408
 
                                fputs("\n*** (1) TRANSACTION:\n", ef);
3409
 
 
3410
 
                                trx_print(ef, wait_lock->trx, 3000);
3411
 
 
3412
 
                                fputs("*** (1) WAITING FOR THIS LOCK"
3413
 
                                      " TO BE GRANTED:\n", ef);
3414
 
 
3415
 
                                if (lock_get_type_low(wait_lock) == LOCK_REC) {
3416
 
                                        lock_rec_print(ef, wait_lock);
3417
 
                                } else {
3418
 
                                        lock_table_print(ef, wait_lock);
3419
 
                                }
3420
 
 
3421
 
                                fputs("*** (2) TRANSACTION:\n", ef);
3422
 
 
3423
 
                                trx_print(ef, lock->trx, 3000);
3424
 
 
3425
 
                                fputs("*** (2) HOLDS THE LOCK(S):\n", ef);
3426
 
 
3427
 
                                if (lock_get_type_low(lock) == LOCK_REC) {
3428
 
                                        lock_rec_print(ef, lock);
3429
 
                                } else {
3430
 
                                        lock_table_print(ef, lock);
3431
 
                                }
3432
 
 
3433
 
                                fputs("*** (2) WAITING FOR THIS LOCK"
3434
 
                                      " TO BE GRANTED:\n", ef);
3435
 
 
3436
 
                                if (lock_get_type_low(start->wait_lock)
3437
 
                                    == LOCK_REC) {
3438
 
                                        lock_rec_print(ef, start->wait_lock);
3439
 
                                } else {
3440
 
                                        lock_table_print(ef, start->wait_lock);
3441
 
                                }
3442
 
#ifdef UNIV_DEBUG
3443
 
                                if (lock_print_waits) {
3444
 
                                        fputs("Deadlock detected"
3445
 
                                              " or too long search\n",
3446
 
                                              stderr);
3447
 
                                }
3448
 
#endif /* UNIV_DEBUG */
3449
 
                                if (too_far) {
3450
 
 
3451
 
                                        fputs("TOO DEEP OR LONG SEARCH"
3452
 
                                              " IN THE LOCK TABLE"
3453
 
                                              " WAITS-FOR GRAPH\n", ef);
3454
 
 
3455
 
                                        return(LOCK_VICTIM_IS_START);
3456
 
                                }
3457
 
 
3458
 
                                if (trx_weight_cmp(wait_lock->trx,
3459
 
                                                   start) >= 0) {
3460
 
                                        /* Our recursion starting point
3461
 
                                        transaction is 'smaller', let us
3462
 
                                        choose 'start' as the victim and roll
3463
 
                                        back it */
3464
 
 
3465
 
                                        return(LOCK_VICTIM_IS_START);
3466
 
                                }
3467
 
 
3468
 
                                lock_deadlock_found = TRUE;
3469
 
 
3470
 
                                /* Let us choose the transaction of wait_lock
3471
 
                                as a victim to try to avoid deadlocking our
3472
 
                                recursion starting point transaction */
3473
 
 
3474
 
                                fputs("*** WE ROLL BACK TRANSACTION (1)\n",
3475
 
                                      ef);
3476
 
 
3477
 
                                wait_lock->trx->was_chosen_as_deadlock_victim
3478
 
                                        = TRUE;
3479
 
 
3480
 
                                lock_cancel_waiting_and_release(wait_lock);
3481
 
 
3482
 
                                /* Since trx and wait_lock are no longer
3483
 
                                in the waits-for graph, we can return FALSE;
3484
 
                                note that our selective algorithm can choose
3485
 
                                several transactions as victims, but still
3486
 
                                we may end up rolling back also the recursion
3487
 
                                starting point transaction! */
3488
 
 
3489
 
                                return(LOCK_VICTIM_IS_OTHER);
3490
 
                        }
3491
 
 
3492
 
                        if (lock_trx->que_state == TRX_QUE_LOCK_WAIT) {
3493
 
 
3494
 
                                /* Another trx ahead has requested lock in an
3495
 
                                incompatible mode, and is itself waiting for
3496
 
                                a lock */
3497
 
 
3498
 
                                ret = lock_deadlock_recursive(
3499
 
                                        start, lock_trx,
3500
 
                                        lock_trx->wait_lock, cost, depth + 1);
3501
 
                                if (ret != 0) {
3502
 
 
3503
 
                                        return(ret);
3504
 
                                }
3505
 
                        }
3506
 
                }
3507
 
        }/* end of the 'for (;;)'-loop */
3508
 
}
3509
 
 
3510
 
/*========================= TABLE LOCKS ==============================*/
3511
 
 
3512
 
/*************************************************************************
3513
 
Creates a table lock object and adds it as the last in the lock queue
3514
 
of the table. Does NOT check for deadlocks or lock compatibility. */
3515
 
UNIV_INLINE
3516
 
lock_t*
3517
 
lock_table_create(
3518
 
/*==============*/
3519
 
                                /* out, own: new lock object */
3520
 
        dict_table_t*   table,  /* in: database table in dictionary cache */
3521
 
        ulint           type_mode,/* in: lock mode possibly ORed with
3522
 
                                LOCK_WAIT */
3523
 
        trx_t*          trx)    /* in: trx */
3524
 
{
3525
 
        lock_t* lock;
3526
 
 
3527
 
        ut_ad(table && trx);
3528
 
        ut_ad(mutex_own(&kernel_mutex));
3529
 
 
3530
 
        if ((type_mode & LOCK_MODE_MASK) == LOCK_AUTO_INC) {
3531
 
                ++table->n_waiting_or_granted_auto_inc_locks;
3532
 
        }
3533
 
 
3534
 
        if (type_mode == LOCK_AUTO_INC) {
3535
 
                /* Only one trx can have the lock on the table
3536
 
                at a time: we may use the memory preallocated
3537
 
                to the table object */
3538
 
 
3539
 
                lock = table->auto_inc_lock;
3540
 
 
3541
 
                ut_a(trx->auto_inc_lock == NULL);
3542
 
                trx->auto_inc_lock = lock;
3543
 
        } else {
3544
 
                lock = mem_heap_alloc(trx->lock_heap, sizeof(lock_t));
3545
 
        }
3546
 
 
3547
 
        UT_LIST_ADD_LAST(trx_locks, trx->trx_locks, lock);
3548
 
 
3549
 
        lock->type_mode = type_mode | LOCK_TABLE;
3550
 
        lock->trx = trx;
3551
 
 
3552
 
        lock->un_member.tab_lock.table = table;
3553
 
 
3554
 
        UT_LIST_ADD_LAST(un_member.tab_lock.locks, table->locks, lock);
3555
 
 
3556
 
        if (UNIV_UNLIKELY(type_mode & LOCK_WAIT)) {
3557
 
 
3558
 
                lock_set_lock_and_trx_wait(lock, trx);
3559
 
        }
3560
 
 
3561
 
        return(lock);
3562
 
}
3563
 
 
3564
 
/*****************************************************************
3565
 
Removes a table lock request from the queue and the trx list of locks;
3566
 
this is a low-level function which does NOT check if waiting requests
3567
 
can now be granted. */
3568
 
UNIV_INLINE
3569
 
void
3570
 
lock_table_remove_low(
3571
 
/*==================*/
3572
 
        lock_t* lock)   /* in: table lock */
3573
 
{
3574
 
        dict_table_t*   table;
3575
 
        trx_t*          trx;
3576
 
 
3577
 
        ut_ad(mutex_own(&kernel_mutex));
3578
 
 
3579
 
        table = lock->un_member.tab_lock.table;
3580
 
        trx = lock->trx;
3581
 
 
3582
 
        if (lock == trx->auto_inc_lock) {
3583
 
                trx->auto_inc_lock = NULL;
3584
 
 
3585
 
                ut_a(table->n_waiting_or_granted_auto_inc_locks > 0);
3586
 
                --table->n_waiting_or_granted_auto_inc_locks;
3587
 
        }
3588
 
 
3589
 
        UT_LIST_REMOVE(trx_locks, trx->trx_locks, lock);
3590
 
        UT_LIST_REMOVE(un_member.tab_lock.locks, table->locks, lock);
3591
 
}
3592
 
 
3593
 
/*************************************************************************
3594
 
Enqueues a waiting request for a table lock which cannot be granted
3595
 
immediately. Checks for deadlocks. */
3596
 
static
3597
 
ulint
3598
 
lock_table_enqueue_waiting(
3599
 
/*=======================*/
3600
 
                                /* out: DB_LOCK_WAIT, DB_DEADLOCK, or
3601
 
                                DB_QUE_THR_SUSPENDED, or DB_SUCCESS;
3602
 
                                DB_SUCCESS means that there was a deadlock,
3603
 
                                but another transaction was chosen as a
3604
 
                                victim, and we got the lock immediately:
3605
 
                                no need to wait then */
3606
 
        ulint           mode,   /* in: lock mode this transaction is
3607
 
                                requesting */
3608
 
        dict_table_t*   table,  /* in: table */
3609
 
        que_thr_t*      thr)    /* in: query thread */
3610
 
{
3611
 
        lock_t* lock;
3612
 
        trx_t*  trx;
3613
 
 
3614
 
        ut_ad(mutex_own(&kernel_mutex));
3615
 
 
3616
 
        /* Test if there already is some other reason to suspend thread:
3617
 
        we do not enqueue a lock request if the query thread should be
3618
 
        stopped anyway */
3619
 
 
3620
 
        if (que_thr_stop(thr)) {
3621
 
                ut_error;
3622
 
 
3623
 
                return(DB_QUE_THR_SUSPENDED);
3624
 
        }
3625
 
 
3626
 
        trx = thr_get_trx(thr);
3627
 
 
3628
 
        switch (trx_get_dict_operation(trx)) {
3629
 
        case TRX_DICT_OP_NONE:
3630
 
                break;
3631
 
        case TRX_DICT_OP_TABLE:
3632
 
        case TRX_DICT_OP_INDEX:
3633
 
                ut_print_timestamp(stderr);
3634
 
                fputs("  InnoDB: Error: a table lock wait happens"
3635
 
                      " in a dictionary operation!\n"
3636
 
                      "InnoDB: Table name ", stderr);
3637
 
                ut_print_name(stderr, trx, TRUE, table->name);
3638
 
                fputs(".\n"
3639
 
                      "InnoDB: Submit a detailed bug report"
3640
 
                      " to http://bugs.mysql.com\n",
3641
 
                      stderr);
3642
 
        }
3643
 
 
3644
 
        /* Enqueue the lock request that will wait to be granted */
3645
 
 
3646
 
        lock = lock_table_create(table, mode | LOCK_WAIT, trx);
3647
 
 
3648
 
        /* Check if a deadlock occurs: if yes, remove the lock request and
3649
 
        return an error code */
3650
 
 
3651
 
        if (lock_deadlock_occurs(lock, trx)) {
3652
 
 
3653
 
                lock_reset_lock_and_trx_wait(lock);
3654
 
                lock_table_remove_low(lock);
3655
 
 
3656
 
                return(DB_DEADLOCK);
3657
 
        }
3658
 
 
3659
 
        if (trx->wait_lock == NULL) {
3660
 
                /* Deadlock resolution chose another transaction as a victim,
3661
 
                and we accidentally got our lock granted! */
3662
 
 
3663
 
                return(DB_SUCCESS);
3664
 
        }
3665
 
 
3666
 
        trx->que_state = TRX_QUE_LOCK_WAIT;
3667
 
        trx->was_chosen_as_deadlock_victim = FALSE;
3668
 
        trx->wait_started = time(NULL);
3669
 
 
3670
 
        ut_a(que_thr_stop(thr));
3671
 
 
3672
 
        return(DB_LOCK_WAIT);
3673
 
}
3674
 
 
3675
 
/*************************************************************************
3676
 
Checks if other transactions have an incompatible mode lock request in
3677
 
the lock queue. */
3678
 
UNIV_INLINE
3679
 
ibool
3680
 
lock_table_other_has_incompatible(
3681
 
/*==============================*/
3682
 
        trx_t*          trx,    /* in: transaction, or NULL if all
3683
 
                                transactions should be included */
3684
 
        ulint           wait,   /* in: LOCK_WAIT if also waiting locks are
3685
 
                                taken into account, or 0 if not */
3686
 
        dict_table_t*   table,  /* in: table */
3687
 
        enum lock_mode  mode)   /* in: lock mode */
3688
 
{
3689
 
        lock_t* lock;
3690
 
 
3691
 
        ut_ad(mutex_own(&kernel_mutex));
3692
 
 
3693
 
        lock = UT_LIST_GET_LAST(table->locks);
3694
 
 
3695
 
        while (lock != NULL) {
3696
 
 
3697
 
                if ((lock->trx != trx)
3698
 
                    && (!lock_mode_compatible(lock_get_mode(lock), mode))
3699
 
                    && (wait || !(lock_get_wait(lock)))) {
3700
 
 
3701
 
                        return(TRUE);
3702
 
                }
3703
 
 
3704
 
                lock = UT_LIST_GET_PREV(un_member.tab_lock.locks, lock);
3705
 
        }
3706
 
 
3707
 
        return(FALSE);
3708
 
}
3709
 
 
3710
 
/*************************************************************************
3711
 
Locks the specified database table in the mode given. If the lock cannot
3712
 
be granted immediately, the query thread is put to wait. */
3713
 
UNIV_INTERN
3714
 
ulint
3715
 
lock_table(
3716
 
/*=======*/
3717
 
                                /* out: DB_SUCCESS, DB_LOCK_WAIT,
3718
 
                                DB_DEADLOCK, or DB_QUE_THR_SUSPENDED */
3719
 
        ulint           flags,  /* in: if BTR_NO_LOCKING_FLAG bit is set,
3720
 
                                does nothing */
3721
 
        dict_table_t*   table,  /* in: database table in dictionary cache */
3722
 
        enum lock_mode  mode,   /* in: lock mode */
3723
 
        que_thr_t*      thr)    /* in: query thread */
3724
 
{
3725
 
        trx_t*  trx;
3726
 
        ulint   err;
3727
 
 
3728
 
        ut_ad(table && thr);
3729
 
 
3730
 
        if (flags & BTR_NO_LOCKING_FLAG) {
3731
 
 
3732
 
                return(DB_SUCCESS);
3733
 
        }
3734
 
 
3735
 
        ut_a(flags == 0);
3736
 
 
3737
 
        trx = thr_get_trx(thr);
3738
 
 
3739
 
        lock_mutex_enter_kernel();
3740
 
 
3741
 
        /* Look for stronger locks the same trx already has on the table */
3742
 
 
3743
 
        if (lock_table_has(trx, table, mode)) {
3744
 
 
3745
 
                lock_mutex_exit_kernel();
3746
 
 
3747
 
                return(DB_SUCCESS);
3748
 
        }
3749
 
 
3750
 
        /* We have to check if the new lock is compatible with any locks
3751
 
        other transactions have in the table lock queue. */
3752
 
 
3753
 
        if (lock_table_other_has_incompatible(trx, LOCK_WAIT, table, mode)) {
3754
 
 
3755
 
                /* Another trx has a request on the table in an incompatible
3756
 
                mode: this trx may have to wait */
3757
 
 
3758
 
                err = lock_table_enqueue_waiting(mode | flags, table, thr);
3759
 
 
3760
 
                lock_mutex_exit_kernel();
3761
 
 
3762
 
                return(err);
3763
 
        }
3764
 
 
3765
 
        lock_table_create(table, mode | flags, trx);
3766
 
 
3767
 
        ut_a(!flags || mode == LOCK_S || mode == LOCK_X);
3768
 
 
3769
 
        lock_mutex_exit_kernel();
3770
 
 
3771
 
        return(DB_SUCCESS);
3772
 
}
3773
 
 
3774
 
/*************************************************************************
3775
 
Checks if there are any locks set on the table. */
3776
 
UNIV_INTERN
3777
 
ibool
3778
 
lock_is_on_table(
3779
 
/*=============*/
3780
 
                                /* out: TRUE if there are lock(s) */
3781
 
        dict_table_t*   table)  /* in: database table in dictionary cache */
3782
 
{
3783
 
        ibool   ret;
3784
 
 
3785
 
        ut_ad(table);
3786
 
 
3787
 
        lock_mutex_enter_kernel();
3788
 
 
3789
 
        if (UT_LIST_GET_LAST(table->locks)) {
3790
 
                ret = TRUE;
3791
 
        } else {
3792
 
                ret = FALSE;
3793
 
        }
3794
 
 
3795
 
        lock_mutex_exit_kernel();
3796
 
 
3797
 
        return(ret);
3798
 
}
3799
 
 
3800
 
/*************************************************************************
3801
 
Checks if a waiting table lock request still has to wait in a queue. */
3802
 
static
3803
 
ibool
3804
 
lock_table_has_to_wait_in_queue(
3805
 
/*============================*/
3806
 
                                /* out: TRUE if still has to wait */
3807
 
        lock_t* wait_lock)      /* in: waiting table lock */
3808
 
{
3809
 
        dict_table_t*   table;
3810
 
        lock_t*         lock;
3811
 
 
3812
 
        ut_ad(lock_get_wait(wait_lock));
3813
 
 
3814
 
        table = wait_lock->un_member.tab_lock.table;
3815
 
 
3816
 
        lock = UT_LIST_GET_FIRST(table->locks);
3817
 
 
3818
 
        while (lock != wait_lock) {
3819
 
 
3820
 
                if (lock_has_to_wait(wait_lock, lock)) {
3821
 
 
3822
 
                        return(TRUE);
3823
 
                }
3824
 
 
3825
 
                lock = UT_LIST_GET_NEXT(un_member.tab_lock.locks, lock);
3826
 
        }
3827
 
 
3828
 
        return(FALSE);
3829
 
}
3830
 
 
3831
 
/*****************************************************************
3832
 
Removes a table lock request, waiting or granted, from the queue and grants
3833
 
locks to other transactions in the queue, if they now are entitled to a
3834
 
lock. */
3835
 
static
3836
 
void
3837
 
lock_table_dequeue(
3838
 
/*===============*/
3839
 
        lock_t* in_lock)/* in: table lock object; transactions waiting
3840
 
                        behind will get their lock requests granted, if
3841
 
                        they are now qualified to it */
3842
 
{
3843
 
        lock_t* lock;
3844
 
 
3845
 
        ut_ad(mutex_own(&kernel_mutex));
3846
 
        ut_a(lock_get_type_low(in_lock) == LOCK_TABLE);
3847
 
 
3848
 
        lock = UT_LIST_GET_NEXT(un_member.tab_lock.locks, in_lock);
3849
 
 
3850
 
        lock_table_remove_low(in_lock);
3851
 
 
3852
 
        /* Check if waiting locks in the queue can now be granted: grant
3853
 
        locks if there are no conflicting locks ahead. */
3854
 
 
3855
 
        while (lock != NULL) {
3856
 
 
3857
 
                if (lock_get_wait(lock)
3858
 
                    && !lock_table_has_to_wait_in_queue(lock)) {
3859
 
 
3860
 
                        /* Grant the lock */
3861
 
                        lock_grant(lock);
3862
 
                }
3863
 
 
3864
 
                lock = UT_LIST_GET_NEXT(un_member.tab_lock.locks, lock);
3865
 
        }
3866
 
}
3867
 
 
3868
 
/*=========================== LOCK RELEASE ==============================*/
3869
 
 
3870
 
/*****************************************************************
3871
 
Removes a granted record lock of a transaction from the queue and grants
3872
 
locks to other transactions waiting in the queue if they now are entitled
3873
 
to a lock. */
3874
 
UNIV_INTERN
3875
 
void
3876
 
lock_rec_unlock(
3877
 
/*============*/
3878
 
        trx_t*                  trx,    /* in: transaction that has
3879
 
                                        set a record lock */
3880
 
        const buf_block_t*      block,  /* in: buffer block containing rec */
3881
 
        const rec_t*            rec,    /* in: record */
3882
 
        enum lock_mode          lock_mode)/* in: LOCK_S or LOCK_X */
3883
 
{
3884
 
        lock_t* lock;
3885
 
        lock_t* release_lock    = NULL;
3886
 
        ulint   heap_no;
3887
 
 
3888
 
        ut_ad(trx && rec);
3889
 
        ut_ad(block->frame == page_align(rec));
3890
 
 
3891
 
        heap_no = page_rec_get_heap_no(rec);
3892
 
 
3893
 
        mutex_enter(&kernel_mutex);
3894
 
 
3895
 
        lock = lock_rec_get_first(block, heap_no);
3896
 
 
3897
 
        /* Find the last lock with the same lock_mode and transaction
3898
 
        from the record. */
3899
 
 
3900
 
        while (lock != NULL) {
3901
 
                if (lock->trx == trx && lock_get_mode(lock) == lock_mode) {
3902
 
                        release_lock = lock;
3903
 
                        ut_a(!lock_get_wait(lock));
3904
 
                }
3905
 
 
3906
 
                lock = lock_rec_get_next(heap_no, lock);
3907
 
        }
3908
 
 
3909
 
        /* If a record lock is found, release the record lock */
3910
 
 
3911
 
        if (UNIV_LIKELY(release_lock != NULL)) {
3912
 
                lock_rec_reset_nth_bit(release_lock, heap_no);
3913
 
        } else {
3914
 
                mutex_exit(&kernel_mutex);
3915
 
                ut_print_timestamp(stderr);
3916
 
                fprintf(stderr,
3917
 
                        "  InnoDB: Error: unlock row could not"
3918
 
                        " find a %lu mode lock on the record\n",
3919
 
                        (ulong) lock_mode);
3920
 
 
3921
 
                return;
3922
 
        }
3923
 
 
3924
 
        /* Check if we can now grant waiting lock requests */
3925
 
 
3926
 
        lock = lock_rec_get_first(block, heap_no);
3927
 
 
3928
 
        while (lock != NULL) {
3929
 
                if (lock_get_wait(lock)
3930
 
                    && !lock_rec_has_to_wait_in_queue(lock)) {
3931
 
 
3932
 
                        /* Grant the lock */
3933
 
                        lock_grant(lock);
3934
 
                }
3935
 
 
3936
 
                lock = lock_rec_get_next(heap_no, lock);
3937
 
        }
3938
 
 
3939
 
        mutex_exit(&kernel_mutex);
3940
 
}
3941
 
 
3942
 
/*************************************************************************
3943
 
Releases a table lock.
3944
 
Releases possible other transactions waiting for this lock. */
3945
 
UNIV_INTERN
3946
 
void
3947
 
lock_table_unlock(
3948
 
/*==============*/
3949
 
        lock_t* lock)   /* in: lock */
3950
 
{
3951
 
        mutex_enter(&kernel_mutex);
3952
 
 
3953
 
        lock_table_dequeue(lock);
3954
 
 
3955
 
        mutex_exit(&kernel_mutex);
3956
 
}
3957
 
 
3958
 
/*************************************************************************
3959
 
Releases an auto-inc lock a transaction possibly has on a table.
3960
 
Releases possible other transactions waiting for this lock. */
3961
 
UNIV_INTERN
3962
 
void
3963
 
lock_table_unlock_auto_inc(
3964
 
/*=======================*/
3965
 
        trx_t*  trx)    /* in: transaction */
3966
 
{
3967
 
        if (trx->auto_inc_lock) {
3968
 
                mutex_enter(&kernel_mutex);
3969
 
 
3970
 
                lock_table_dequeue(trx->auto_inc_lock);
3971
 
 
3972
 
                mutex_exit(&kernel_mutex);
3973
 
        }
3974
 
}
3975
 
 
3976
 
/*************************************************************************
3977
 
Releases transaction locks, and releases possible other transactions waiting
3978
 
because of these locks. */
3979
 
UNIV_INTERN
3980
 
void
3981
 
lock_release_off_kernel(
3982
 
/*====================*/
3983
 
        trx_t*  trx)    /* in: transaction */
3984
 
{
3985
 
        dict_table_t*   table;
3986
 
        ulint           count;
3987
 
        lock_t*         lock;
3988
 
 
3989
 
        ut_ad(mutex_own(&kernel_mutex));
3990
 
 
3991
 
        lock = UT_LIST_GET_LAST(trx->trx_locks);
3992
 
 
3993
 
        count = 0;
3994
 
 
3995
 
        while (lock != NULL) {
3996
 
 
3997
 
                count++;
3998
 
 
3999
 
                if (lock_get_type_low(lock) == LOCK_REC) {
4000
 
 
4001
 
                        lock_rec_dequeue_from_page(lock);
4002
 
                } else {
4003
 
                        ut_ad(lock_get_type_low(lock) & LOCK_TABLE);
4004
 
 
4005
 
                        if (lock_get_mode(lock) != LOCK_IS
4006
 
                            && !ut_dulint_is_zero(trx->undo_no)) {
4007
 
 
4008
 
                                /* The trx may have modified the table. We
4009
 
                                block the use of the MySQL query cache for
4010
 
                                all currently active transactions. */
4011
 
 
4012
 
                                table = lock->un_member.tab_lock.table;
4013
 
 
4014
 
                                table->query_cache_inv_trx_id
4015
 
                                        = trx_sys->max_trx_id;
4016
 
                        }
4017
 
 
4018
 
                        lock_table_dequeue(lock);
4019
 
                }
4020
 
 
4021
 
                if (count == LOCK_RELEASE_KERNEL_INTERVAL) {
4022
 
                        /* Release the kernel mutex for a while, so that we
4023
 
                        do not monopolize it */
4024
 
 
4025
 
                        lock_mutex_exit_kernel();
4026
 
 
4027
 
                        lock_mutex_enter_kernel();
4028
 
 
4029
 
                        count = 0;
4030
 
                }
4031
 
 
4032
 
                lock = UT_LIST_GET_LAST(trx->trx_locks);
4033
 
        }
4034
 
 
4035
 
        mem_heap_empty(trx->lock_heap);
4036
 
 
4037
 
        ut_a(trx->auto_inc_lock == NULL);
4038
 
}
4039
 
 
4040
 
/*************************************************************************
4041
 
Cancels a waiting lock request and releases possible other transactions
4042
 
waiting behind it. */
4043
 
UNIV_INTERN
4044
 
void
4045
 
lock_cancel_waiting_and_release(
4046
 
/*============================*/
4047
 
        lock_t* lock)   /* in: waiting lock request */
4048
 
{
4049
 
        ut_ad(mutex_own(&kernel_mutex));
4050
 
 
4051
 
        if (lock_get_type_low(lock) == LOCK_REC) {
4052
 
 
4053
 
                lock_rec_dequeue_from_page(lock);
4054
 
        } else {
4055
 
                ut_ad(lock_get_type_low(lock) & LOCK_TABLE);
4056
 
 
4057
 
                lock_table_dequeue(lock);
4058
 
        }
4059
 
 
4060
 
        /* Reset the wait flag and the back pointer to lock in trx */
4061
 
 
4062
 
        lock_reset_lock_and_trx_wait(lock);
4063
 
 
4064
 
        /* The following function releases the trx from lock wait */
4065
 
 
4066
 
        trx_end_lock_wait(lock->trx);
4067
 
}
4068
 
 
4069
 
/*************************************************************************
4070
 
Resets all record and table locks of a transaction on a table to be dropped.
4071
 
No lock is allowed to be a wait lock. */
4072
 
static
4073
 
void
4074
 
lock_reset_all_on_table_for_trx(
4075
 
/*============================*/
4076
 
        dict_table_t*   table,  /* in: table to be dropped */
4077
 
        trx_t*          trx)    /* in: a transaction */
4078
 
{
4079
 
        lock_t* lock;
4080
 
        lock_t* prev_lock;
4081
 
 
4082
 
        ut_ad(mutex_own(&kernel_mutex));
4083
 
 
4084
 
        lock = UT_LIST_GET_LAST(trx->trx_locks);
4085
 
 
4086
 
        while (lock != NULL) {
4087
 
                prev_lock = UT_LIST_GET_PREV(trx_locks, lock);
4088
 
 
4089
 
                if (lock_get_type_low(lock) == LOCK_REC
4090
 
                    && lock->index->table == table) {
4091
 
                        ut_a(!lock_get_wait(lock));
4092
 
 
4093
 
                        lock_rec_discard(lock);
4094
 
                } else if (lock_get_type_low(lock) & LOCK_TABLE
4095
 
                           && lock->un_member.tab_lock.table == table) {
4096
 
 
4097
 
                        ut_a(!lock_get_wait(lock));
4098
 
 
4099
 
                        lock_table_remove_low(lock);
4100
 
                }
4101
 
 
4102
 
                lock = prev_lock;
4103
 
        }
4104
 
}
4105
 
 
4106
 
/*************************************************************************
4107
 
Resets all locks, both table and record locks, on a table to be dropped.
4108
 
No lock is allowed to be a wait lock. */
4109
 
UNIV_INTERN
4110
 
void
4111
 
lock_reset_all_on_table(
4112
 
/*====================*/
4113
 
        dict_table_t*   table)  /* in: table to be dropped */
4114
 
{
4115
 
        lock_t* lock;
4116
 
 
4117
 
        mutex_enter(&kernel_mutex);
4118
 
 
4119
 
        lock = UT_LIST_GET_FIRST(table->locks);
4120
 
 
4121
 
        while (lock) {
4122
 
                ut_a(!lock_get_wait(lock));
4123
 
 
4124
 
                lock_reset_all_on_table_for_trx(table, lock->trx);
4125
 
 
4126
 
                lock = UT_LIST_GET_FIRST(table->locks);
4127
 
        }
4128
 
 
4129
 
        mutex_exit(&kernel_mutex);
4130
 
}
4131
 
 
4132
 
/*===================== VALIDATION AND DEBUGGING  ====================*/
4133
 
 
4134
 
/*************************************************************************
4135
 
Prints info of a table lock. */
4136
 
UNIV_INTERN
4137
 
void
4138
 
lock_table_print(
4139
 
/*=============*/
4140
 
        FILE*           file,   /* in: file where to print */
4141
 
        const lock_t*   lock)   /* in: table type lock */
4142
 
{
4143
 
        ut_ad(mutex_own(&kernel_mutex));
4144
 
        ut_a(lock_get_type_low(lock) == LOCK_TABLE);
4145
 
 
4146
 
        fputs("TABLE LOCK table ", file);
4147
 
        ut_print_name(file, lock->trx, TRUE,
4148
 
                      lock->un_member.tab_lock.table->name);
4149
 
        fprintf(file, " trx id " TRX_ID_FMT,
4150
 
                TRX_ID_PREP_PRINTF(lock->trx->id));
4151
 
 
4152
 
        if (lock_get_mode(lock) == LOCK_S) {
4153
 
                fputs(" lock mode S", file);
4154
 
        } else if (lock_get_mode(lock) == LOCK_X) {
4155
 
                fputs(" lock mode X", file);
4156
 
        } else if (lock_get_mode(lock) == LOCK_IS) {
4157
 
                fputs(" lock mode IS", file);
4158
 
        } else if (lock_get_mode(lock) == LOCK_IX) {
4159
 
                fputs(" lock mode IX", file);
4160
 
        } else if (lock_get_mode(lock) == LOCK_AUTO_INC) {
4161
 
                fputs(" lock mode AUTO-INC", file);
4162
 
        } else {
4163
 
                fprintf(file, " unknown lock mode %lu",
4164
 
                        (ulong) lock_get_mode(lock));
4165
 
        }
4166
 
 
4167
 
        if (lock_get_wait(lock)) {
4168
 
                fputs(" waiting", file);
4169
 
        }
4170
 
 
4171
 
        putc('\n', file);
4172
 
}
4173
 
 
4174
 
/*************************************************************************
4175
 
Prints info of a record lock. */
4176
 
UNIV_INTERN
4177
 
void
4178
 
lock_rec_print(
4179
 
/*===========*/
4180
 
        FILE*           file,   /* in: file where to print */
4181
 
        const lock_t*   lock)   /* in: record type lock */
4182
 
{
4183
 
        const buf_block_t*      block;
4184
 
        ulint                   space;
4185
 
        ulint                   page_no;
4186
 
        ulint                   i;
4187
 
        mtr_t                   mtr;
4188
 
        mem_heap_t*             heap            = NULL;
4189
 
        ulint                   offsets_[REC_OFFS_NORMAL_SIZE];
4190
 
        ulint*                  offsets         = offsets_;
4191
 
        rec_offs_init(offsets_);
4192
 
 
4193
 
        ut_ad(mutex_own(&kernel_mutex));
4194
 
        ut_a(lock_get_type_low(lock) == LOCK_REC);
4195
 
 
4196
 
        space = lock->un_member.rec_lock.space;
4197
 
        page_no = lock->un_member.rec_lock.page_no;
4198
 
 
4199
 
        fprintf(file, "RECORD LOCKS space id %lu page no %lu n bits %lu ",
4200
 
                (ulong) space, (ulong) page_no,
4201
 
                (ulong) lock_rec_get_n_bits(lock));
4202
 
        dict_index_name_print(file, lock->trx, lock->index);
4203
 
        fprintf(file, " trx id " TRX_ID_FMT,
4204
 
                TRX_ID_PREP_PRINTF(lock->trx->id));
4205
 
 
4206
 
        if (lock_get_mode(lock) == LOCK_S) {
4207
 
                fputs(" lock mode S", file);
4208
 
        } else if (lock_get_mode(lock) == LOCK_X) {
4209
 
                fputs(" lock_mode X", file);
4210
 
        } else {
4211
 
                ut_error;
4212
 
        }
4213
 
 
4214
 
        if (lock_rec_get_gap(lock)) {
4215
 
                fputs(" locks gap before rec", file);
4216
 
        }
4217
 
 
4218
 
        if (lock_rec_get_rec_not_gap(lock)) {
4219
 
                fputs(" locks rec but not gap", file);
4220
 
        }
4221
 
 
4222
 
        if (lock_rec_get_insert_intention(lock)) {
4223
 
                fputs(" insert intention", file);
4224
 
        }
4225
 
 
4226
 
        if (lock_get_wait(lock)) {
4227
 
                fputs(" waiting", file);
4228
 
        }
4229
 
 
4230
 
        mtr_start(&mtr);
4231
 
 
4232
 
        putc('\n', file);
4233
 
 
4234
 
        block = buf_page_try_get(space, page_no, &mtr);
4235
 
 
4236
 
        if (block) {
4237
 
                for (i = 0; i < lock_rec_get_n_bits(lock); i++) {
4238
 
 
4239
 
                        if (lock_rec_get_nth_bit(lock, i)) {
4240
 
 
4241
 
                                const rec_t*    rec
4242
 
                                        = page_find_rec_with_heap_no(
4243
 
                                                buf_block_get_frame(block), i);
4244
 
                                offsets = rec_get_offsets(
4245
 
                                        rec, lock->index, offsets,
4246
 
                                        ULINT_UNDEFINED, &heap);
4247
 
 
4248
 
                                fprintf(file, "Record lock, heap no %lu ",
4249
 
                                        (ulong) i);
4250
 
                                rec_print_new(file, rec, offsets);
4251
 
                                putc('\n', file);
4252
 
                        }
4253
 
                }
4254
 
        } else {
4255
 
                for (i = 0; i < lock_rec_get_n_bits(lock); i++) {
4256
 
                        fprintf(file, "Record lock, heap no %lu\n", (ulong) i);
4257
 
                }
4258
 
        }
4259
 
 
4260
 
        mtr_commit(&mtr);
4261
 
        if (UNIV_LIKELY_NULL(heap)) {
4262
 
                mem_heap_free(heap);
4263
 
        }
4264
 
}
4265
 
 
4266
 
#ifndef UNIV_HOTBACKUP
4267
 
/*************************************************************************
4268
 
Calculates the number of record lock structs in the record lock hash table. */
4269
 
static
4270
 
ulint
4271
 
lock_get_n_rec_locks(void)
4272
 
/*======================*/
4273
 
{
4274
 
        lock_t* lock;
4275
 
        ulint   n_locks = 0;
4276
 
        ulint   i;
4277
 
 
4278
 
        ut_ad(mutex_own(&kernel_mutex));
4279
 
 
4280
 
        for (i = 0; i < hash_get_n_cells(lock_sys->rec_hash); i++) {
4281
 
 
4282
 
                lock = HASH_GET_FIRST(lock_sys->rec_hash, i);
4283
 
 
4284
 
                while (lock) {
4285
 
                        n_locks++;
4286
 
 
4287
 
                        lock = HASH_GET_NEXT(hash, lock);
4288
 
                }
4289
 
        }
4290
 
 
4291
 
        return(n_locks);
4292
 
}
4293
 
 
4294
 
/*************************************************************************
4295
 
Prints info of locks for all transactions. */
4296
 
UNIV_INTERN
4297
 
void
4298
 
lock_print_info_summary(
4299
 
/*====================*/
4300
 
        FILE*   file)   /* in: file where to print */
4301
 
{
4302
 
        /* We must protect the MySQL thd->query field with a MySQL mutex, and
4303
 
        because the MySQL mutex must be reserved before the kernel_mutex of
4304
 
        InnoDB, we call innobase_mysql_prepare_print_arbitrary_thd() here. */
4305
 
 
4306
 
        innobase_mysql_prepare_print_arbitrary_thd();
4307
 
        lock_mutex_enter_kernel();
4308
 
 
4309
 
        if (lock_deadlock_found) {
4310
 
                fputs("------------------------\n"
4311
 
                      "LATEST DETECTED DEADLOCK\n"
4312
 
                      "------------------------\n", file);
4313
 
 
4314
 
                ut_copy_file(file, lock_latest_err_file);
4315
 
        }
4316
 
 
4317
 
        fputs("------------\n"
4318
 
              "TRANSACTIONS\n"
4319
 
              "------------\n", file);
4320
 
 
4321
 
        fprintf(file, "Trx id counter " TRX_ID_FMT "\n",
4322
 
                TRX_ID_PREP_PRINTF(trx_sys->max_trx_id));
4323
 
 
4324
 
        fprintf(file,
4325
 
                "Purge done for trx's n:o < " TRX_ID_FMT
4326
 
                " undo n:o < " TRX_ID_FMT "\n",
4327
 
                TRX_ID_PREP_PRINTF(purge_sys->purge_trx_no),
4328
 
                TRX_ID_PREP_PRINTF(purge_sys->purge_undo_no));
4329
 
 
4330
 
        fprintf(file,
4331
 
                "History list length %lu\n",
4332
 
                (ulong) trx_sys->rseg_history_len);
4333
 
 
4334
 
        fprintf(file,
4335
 
                "Total number of lock structs in row lock hash table %lu\n",
4336
 
                (ulong) lock_get_n_rec_locks());
4337
 
}
4338
 
 
4339
 
/*************************************************************************
4340
 
Prints info of locks for each transaction. */
4341
 
UNIV_INTERN
4342
 
void
4343
 
lock_print_info_all_transactions(
4344
 
/*=============================*/
4345
 
        FILE*   file)   /* in: file where to print */
4346
 
{
4347
 
        lock_t* lock;
4348
 
        ibool   load_page_first = TRUE;
4349
 
        ulint   nth_trx         = 0;
4350
 
        ulint   nth_lock        = 0;
4351
 
        ulint   i;
4352
 
        mtr_t   mtr;
4353
 
        trx_t*  trx;
4354
 
 
4355
 
        fprintf(file, "LIST OF TRANSACTIONS FOR EACH SESSION:\n");
4356
 
 
4357
 
        /* First print info on non-active transactions */
4358
 
 
4359
 
        trx = UT_LIST_GET_FIRST(trx_sys->mysql_trx_list);
4360
 
 
4361
 
        while (trx) {
4362
 
                if (trx->conc_state == TRX_NOT_STARTED) {
4363
 
                        fputs("---", file);
4364
 
                        trx_print(file, trx, 600);
4365
 
                }
4366
 
 
4367
 
                trx = UT_LIST_GET_NEXT(mysql_trx_list, trx);
4368
 
        }
4369
 
 
4370
 
loop:
4371
 
        trx = UT_LIST_GET_FIRST(trx_sys->trx_list);
4372
 
 
4373
 
        i = 0;
4374
 
 
4375
 
        /* Since we temporarily release the kernel mutex when
4376
 
        reading a database page in below, variable trx may be
4377
 
        obsolete now and we must loop through the trx list to
4378
 
        get probably the same trx, or some other trx. */
4379
 
 
4380
 
        while (trx && (i < nth_trx)) {
4381
 
                trx = UT_LIST_GET_NEXT(trx_list, trx);
4382
 
                i++;
4383
 
        }
4384
 
 
4385
 
        if (trx == NULL) {
4386
 
                lock_mutex_exit_kernel();
4387
 
                innobase_mysql_end_print_arbitrary_thd();
4388
 
 
4389
 
                ut_ad(lock_validate());
4390
 
 
4391
 
                return;
4392
 
        }
4393
 
 
4394
 
        if (nth_lock == 0) {
4395
 
                fputs("---", file);
4396
 
                trx_print(file, trx, 600);
4397
 
 
4398
 
                if (trx->read_view) {
4399
 
                        fprintf(file,
4400
 
                                "Trx read view will not see trx with"
4401
 
                                " id >= " TRX_ID_FMT
4402
 
                                ", sees < " TRX_ID_FMT "\n",
4403
 
                                TRX_ID_PREP_PRINTF(
4404
 
                                        trx->read_view->low_limit_id),
4405
 
                                TRX_ID_PREP_PRINTF(
4406
 
                                        trx->read_view->up_limit_id));
4407
 
                }
4408
 
 
4409
 
                if (trx->que_state == TRX_QUE_LOCK_WAIT) {
4410
 
                        fprintf(file,
4411
 
                                "------- TRX HAS BEEN WAITING %lu SEC"
4412
 
                                " FOR THIS LOCK TO BE GRANTED:\n",
4413
 
                                (ulong) difftime(time(NULL),
4414
 
                                                 trx->wait_started));
4415
 
 
4416
 
                        if (lock_get_type_low(trx->wait_lock) == LOCK_REC) {
4417
 
                                lock_rec_print(file, trx->wait_lock);
4418
 
                        } else {
4419
 
                                lock_table_print(file, trx->wait_lock);
4420
 
                        }
4421
 
 
4422
 
                        fputs("------------------\n", file);
4423
 
                }
4424
 
        }
4425
 
 
4426
 
        if (!srv_print_innodb_lock_monitor) {
4427
 
                nth_trx++;
4428
 
                goto loop;
4429
 
        }
4430
 
 
4431
 
        i = 0;
4432
 
 
4433
 
        /* Look at the note about the trx loop above why we loop here:
4434
 
        lock may be an obsolete pointer now. */
4435
 
 
4436
 
        lock = UT_LIST_GET_FIRST(trx->trx_locks);
4437
 
 
4438
 
        while (lock && (i < nth_lock)) {
4439
 
                lock = UT_LIST_GET_NEXT(trx_locks, lock);
4440
 
                i++;
4441
 
        }
4442
 
 
4443
 
        if (lock == NULL) {
4444
 
                nth_trx++;
4445
 
                nth_lock = 0;
4446
 
 
4447
 
                goto loop;
4448
 
        }
4449
 
 
4450
 
        if (lock_get_type_low(lock) == LOCK_REC) {
4451
 
                if (load_page_first) {
4452
 
                        ulint   space   = lock->un_member.rec_lock.space;
4453
 
                        ulint   zip_size= fil_space_get_zip_size(space);
4454
 
                        ulint   page_no = lock->un_member.rec_lock.page_no;
4455
 
 
4456
 
                        lock_mutex_exit_kernel();
4457
 
                        innobase_mysql_end_print_arbitrary_thd();
4458
 
 
4459
 
                        mtr_start(&mtr);
4460
 
 
4461
 
                        buf_page_get_with_no_latch(space, zip_size,
4462
 
                                                   page_no, &mtr);
4463
 
 
4464
 
                        mtr_commit(&mtr);
4465
 
 
4466
 
                        load_page_first = FALSE;
4467
 
 
4468
 
                        innobase_mysql_prepare_print_arbitrary_thd();
4469
 
                        lock_mutex_enter_kernel();
4470
 
 
4471
 
                        goto loop;
4472
 
                }
4473
 
 
4474
 
                lock_rec_print(file, lock);
4475
 
        } else {
4476
 
                ut_ad(lock_get_type_low(lock) & LOCK_TABLE);
4477
 
 
4478
 
                lock_table_print(file, lock);
4479
 
        }
4480
 
 
4481
 
        load_page_first = TRUE;
4482
 
 
4483
 
        nth_lock++;
4484
 
 
4485
 
        if (nth_lock >= 10) {
4486
 
                fputs("10 LOCKS PRINTED FOR THIS TRX:"
4487
 
                      " SUPPRESSING FURTHER PRINTS\n",
4488
 
                      file);
4489
 
 
4490
 
                nth_trx++;
4491
 
                nth_lock = 0;
4492
 
 
4493
 
                goto loop;
4494
 
        }
4495
 
 
4496
 
        goto loop;
4497
 
}
4498
 
 
4499
 
# ifdef UNIV_DEBUG
4500
 
/*************************************************************************
4501
 
Validates the lock queue on a table. */
4502
 
static
4503
 
ibool
4504
 
lock_table_queue_validate(
4505
 
/*======================*/
4506
 
                                /* out: TRUE if ok */
4507
 
        dict_table_t*   table)  /* in: table */
4508
 
{
4509
 
        lock_t* lock;
4510
 
 
4511
 
        ut_ad(mutex_own(&kernel_mutex));
4512
 
 
4513
 
        lock = UT_LIST_GET_FIRST(table->locks);
4514
 
 
4515
 
        while (lock) {
4516
 
                ut_a(((lock->trx)->conc_state == TRX_ACTIVE)
4517
 
                     || ((lock->trx)->conc_state == TRX_PREPARED)
4518
 
                     || ((lock->trx)->conc_state == TRX_COMMITTED_IN_MEMORY));
4519
 
 
4520
 
                if (!lock_get_wait(lock)) {
4521
 
 
4522
 
                        ut_a(!lock_table_other_has_incompatible(
4523
 
                                     lock->trx, 0, table,
4524
 
                                     lock_get_mode(lock)));
4525
 
                } else {
4526
 
 
4527
 
                        ut_a(lock_table_has_to_wait_in_queue(lock));
4528
 
                }
4529
 
 
4530
 
                lock = UT_LIST_GET_NEXT(un_member.tab_lock.locks, lock);
4531
 
        }
4532
 
 
4533
 
        return(TRUE);
4534
 
}
4535
 
 
4536
 
/*************************************************************************
4537
 
Validates the lock queue on a single record. */
4538
 
static
4539
 
ibool
4540
 
lock_rec_queue_validate(
4541
 
/*====================*/
4542
 
                                        /* out: TRUE if ok */
4543
 
        const buf_block_t*      block,  /* in: buffer block containing rec */
4544
 
        const rec_t*            rec,    /* in: record to look at */
4545
 
        dict_index_t*           index,  /* in: index, or NULL if not known */
4546
 
        const ulint*            offsets)/* in: rec_get_offsets(rec, index) */
4547
 
{
4548
 
        trx_t*  impl_trx;
4549
 
        lock_t* lock;
4550
 
        ulint   heap_no;
4551
 
 
4552
 
        ut_a(rec);
4553
 
        ut_a(block->frame == page_align(rec));
4554
 
        ut_ad(rec_offs_validate(rec, index, offsets));
4555
 
        ut_ad(!page_rec_is_comp(rec) == !rec_offs_comp(offsets));
4556
 
 
4557
 
        heap_no = page_rec_get_heap_no(rec);
4558
 
 
4559
 
        lock_mutex_enter_kernel();
4560
 
 
4561
 
        if (!page_rec_is_user_rec(rec)) {
4562
 
 
4563
 
                lock = lock_rec_get_first(block, heap_no);
4564
 
 
4565
 
                while (lock) {
4566
 
                        switch(lock->trx->conc_state) {
4567
 
                        case TRX_ACTIVE:
4568
 
                        case TRX_PREPARED:
4569
 
                        case TRX_COMMITTED_IN_MEMORY:
4570
 
                                break;
4571
 
                        default:
4572
 
                                ut_error;
4573
 
                        }
4574
 
 
4575
 
                        ut_a(trx_in_trx_list(lock->trx));
4576
 
 
4577
 
                        if (lock_get_wait(lock)) {
4578
 
                                ut_a(lock_rec_has_to_wait_in_queue(lock));
4579
 
                        }
4580
 
 
4581
 
                        if (index) {
4582
 
                                ut_a(lock->index == index);
4583
 
                        }
4584
 
 
4585
 
                        lock = lock_rec_get_next(heap_no, lock);
4586
 
                }
4587
 
 
4588
 
                lock_mutex_exit_kernel();
4589
 
 
4590
 
                return(TRUE);
4591
 
        }
4592
 
 
4593
 
        if (!index);
4594
 
        else if (dict_index_is_clust(index)) {
4595
 
 
4596
 
                impl_trx = lock_clust_rec_some_has_impl(rec, index, offsets);
4597
 
 
4598
 
                if (impl_trx
4599
 
                    && lock_rec_other_has_expl_req(LOCK_S, 0, LOCK_WAIT,
4600
 
                                                   block, heap_no, impl_trx)) {
4601
 
 
4602
 
                        ut_a(lock_rec_has_expl(LOCK_X | LOCK_REC_NOT_GAP,
4603
 
                                               block, heap_no, impl_trx));
4604
 
                }
4605
 
        } else {
4606
 
 
4607
 
                /* The kernel mutex may get released temporarily in the
4608
 
                next function call: we have to release lock table mutex
4609
 
                to obey the latching order */
4610
 
 
4611
 
                impl_trx = lock_sec_rec_some_has_impl_off_kernel(
4612
 
                        rec, index, offsets);
4613
 
 
4614
 
                if (impl_trx
4615
 
                    && lock_rec_other_has_expl_req(LOCK_S, 0, LOCK_WAIT,
4616
 
                                                   block, heap_no, impl_trx)) {
4617
 
 
4618
 
                        ut_a(lock_rec_has_expl(LOCK_X | LOCK_REC_NOT_GAP,
4619
 
                                               block, heap_no, impl_trx));
4620
 
                }
4621
 
        }
4622
 
 
4623
 
        lock = lock_rec_get_first(block, heap_no);
4624
 
 
4625
 
        while (lock) {
4626
 
                ut_a(lock->trx->conc_state == TRX_ACTIVE
4627
 
                     || lock->trx->conc_state == TRX_PREPARED
4628
 
                     || lock->trx->conc_state == TRX_COMMITTED_IN_MEMORY);
4629
 
                ut_a(trx_in_trx_list(lock->trx));
4630
 
 
4631
 
                if (index) {
4632
 
                        ut_a(lock->index == index);
4633
 
                }
4634
 
 
4635
 
                if (!lock_rec_get_gap(lock) && !lock_get_wait(lock)) {
4636
 
 
4637
 
                        enum lock_mode  mode;
4638
 
 
4639
 
                        if (lock_get_mode(lock) == LOCK_S) {
4640
 
                                mode = LOCK_X;
4641
 
                        } else {
4642
 
                                mode = LOCK_S;
4643
 
                        }
4644
 
                        ut_a(!lock_rec_other_has_expl_req(
4645
 
                                     mode, 0, 0, block, heap_no, lock->trx));
4646
 
 
4647
 
                } else if (lock_get_wait(lock) && !lock_rec_get_gap(lock)) {
4648
 
 
4649
 
                        ut_a(lock_rec_has_to_wait_in_queue(lock));
4650
 
                }
4651
 
 
4652
 
                lock = lock_rec_get_next(heap_no, lock);
4653
 
        }
4654
 
 
4655
 
        lock_mutex_exit_kernel();
4656
 
 
4657
 
        return(TRUE);
4658
 
}
4659
 
 
4660
 
/*************************************************************************
4661
 
Validates the record lock queues on a page. */
4662
 
static
4663
 
ibool
4664
 
lock_rec_validate_page(
4665
 
/*===================*/
4666
 
                        /* out: TRUE if ok */
4667
 
        ulint   space,  /* in: space id */
4668
 
        ulint   page_no)/* in: page number */
4669
 
{
4670
 
        dict_index_t*   index;
4671
 
        buf_block_t*    block;
4672
 
        const page_t*   page;
4673
 
        lock_t*         lock;
4674
 
        const rec_t*    rec;
4675
 
        ulint           nth_lock        = 0;
4676
 
        ulint           nth_bit         = 0;
4677
 
        ulint           i;
4678
 
        mtr_t           mtr;
4679
 
        mem_heap_t*     heap            = NULL;
4680
 
        ulint           offsets_[REC_OFFS_NORMAL_SIZE];
4681
 
        ulint*          offsets         = offsets_;
4682
 
        rec_offs_init(offsets_);
4683
 
 
4684
 
        ut_ad(!mutex_own(&kernel_mutex));
4685
 
 
4686
 
        mtr_start(&mtr);
4687
 
 
4688
 
        block = buf_page_get(space, fil_space_get_zip_size(space),
4689
 
                             page_no, RW_X_LATCH, &mtr);
4690
 
#ifdef UNIV_SYNC_DEBUG
4691
 
        buf_block_dbg_add_level(block, SYNC_NO_ORDER_CHECK);
4692
 
#endif /* UNIV_SYNC_DEBUG */
4693
 
        page = block->frame;
4694
 
 
4695
 
        lock_mutex_enter_kernel();
4696
 
loop:
4697
 
        lock = lock_rec_get_first_on_page_addr(space, page_no);
4698
 
 
4699
 
        if (!lock) {
4700
 
                goto function_exit;
4701
 
        }
4702
 
 
4703
 
        for (i = 0; i < nth_lock; i++) {
4704
 
 
4705
 
                lock = lock_rec_get_next_on_page(lock);
4706
 
 
4707
 
                if (!lock) {
4708
 
                        goto function_exit;
4709
 
                }
4710
 
        }
4711
 
 
4712
 
        ut_a(trx_in_trx_list(lock->trx));
4713
 
        ut_a(lock->trx->conc_state == TRX_ACTIVE
4714
 
             || lock->trx->conc_state == TRX_PREPARED
4715
 
             || lock->trx->conc_state == TRX_COMMITTED_IN_MEMORY);
4716
 
 
4717
 
        for (i = nth_bit; i < lock_rec_get_n_bits(lock); i++) {
4718
 
 
4719
 
                if (i == 1 || lock_rec_get_nth_bit(lock, i)) {
4720
 
 
4721
 
                        index = lock->index;
4722
 
                        rec = page_find_rec_with_heap_no(page, i);
4723
 
                        ut_a(rec);
4724
 
                        offsets = rec_get_offsets(rec, index, offsets,
4725
 
                                                  ULINT_UNDEFINED, &heap);
4726
 
 
4727
 
                        fprintf(stderr,
4728
 
                                "Validating %lu %lu\n",
4729
 
                                (ulong) space, (ulong) page_no);
4730
 
 
4731
 
                        lock_mutex_exit_kernel();
4732
 
 
4733
 
                        lock_rec_queue_validate(block, rec, index, offsets);
4734
 
 
4735
 
                        lock_mutex_enter_kernel();
4736
 
 
4737
 
                        nth_bit = i + 1;
4738
 
 
4739
 
                        goto loop;
4740
 
                }
4741
 
        }
4742
 
 
4743
 
        nth_bit = 0;
4744
 
        nth_lock++;
4745
 
 
4746
 
        goto loop;
4747
 
 
4748
 
function_exit:
4749
 
        lock_mutex_exit_kernel();
4750
 
 
4751
 
        mtr_commit(&mtr);
4752
 
 
4753
 
        if (UNIV_LIKELY_NULL(heap)) {
4754
 
                mem_heap_free(heap);
4755
 
        }
4756
 
        return(TRUE);
4757
 
}
4758
 
 
4759
 
/*************************************************************************
4760
 
Validates the lock system. */
4761
 
static
4762
 
ibool
4763
 
lock_validate(void)
4764
 
/*===============*/
4765
 
                        /* out: TRUE if ok */
4766
 
{
4767
 
        lock_t* lock;
4768
 
        trx_t*  trx;
4769
 
        dulint  limit;
4770
 
        ulint   space;
4771
 
        ulint   page_no;
4772
 
        ulint   i;
4773
 
 
4774
 
        lock_mutex_enter_kernel();
4775
 
 
4776
 
        trx = UT_LIST_GET_FIRST(trx_sys->trx_list);
4777
 
 
4778
 
        while (trx) {
4779
 
                lock = UT_LIST_GET_FIRST(trx->trx_locks);
4780
 
 
4781
 
                while (lock) {
4782
 
                        if (lock_get_type_low(lock) & LOCK_TABLE) {
4783
 
 
4784
 
                                lock_table_queue_validate(
4785
 
                                        lock->un_member.tab_lock.table);
4786
 
                        }
4787
 
 
4788
 
                        lock = UT_LIST_GET_NEXT(trx_locks, lock);
4789
 
                }
4790
 
 
4791
 
                trx = UT_LIST_GET_NEXT(trx_list, trx);
4792
 
        }
4793
 
 
4794
 
        for (i = 0; i < hash_get_n_cells(lock_sys->rec_hash); i++) {
4795
 
 
4796
 
                limit = ut_dulint_zero;
4797
 
 
4798
 
                for (;;) {
4799
 
                        lock = HASH_GET_FIRST(lock_sys->rec_hash, i);
4800
 
 
4801
 
                        while (lock) {
4802
 
                                ut_a(trx_in_trx_list(lock->trx));
4803
 
 
4804
 
                                space = lock->un_member.rec_lock.space;
4805
 
                                page_no = lock->un_member.rec_lock.page_no;
4806
 
 
4807
 
                                if (ut_dulint_cmp(
4808
 
                                            ut_dulint_create(space, page_no),
4809
 
                                            limit) >= 0) {
4810
 
                                        break;
4811
 
                                }
4812
 
 
4813
 
                                lock = HASH_GET_NEXT(hash, lock);
4814
 
                        }
4815
 
 
4816
 
                        if (!lock) {
4817
 
 
4818
 
                                break;
4819
 
                        }
4820
 
 
4821
 
                        lock_mutex_exit_kernel();
4822
 
 
4823
 
                        lock_rec_validate_page(space, page_no);
4824
 
 
4825
 
                        lock_mutex_enter_kernel();
4826
 
 
4827
 
                        limit = ut_dulint_create(space, page_no + 1);
4828
 
                }
4829
 
        }
4830
 
 
4831
 
        lock_mutex_exit_kernel();
4832
 
 
4833
 
        return(TRUE);
4834
 
}
4835
 
# endif /* UNIV_DEBUG */
4836
 
#endif /* !UNIV_HOTBACKUP */
4837
 
/*============ RECORD LOCK CHECKS FOR ROW OPERATIONS ====================*/
4838
 
 
4839
 
/*************************************************************************
4840
 
Checks if locks of other transactions prevent an immediate insert of
4841
 
a record. If they do, first tests if the query thread should anyway
4842
 
be suspended for some reason; if not, then puts the transaction and
4843
 
the query thread to the lock wait state and inserts a waiting request
4844
 
for a gap x-lock to the lock queue. */
4845
 
UNIV_INTERN
4846
 
ulint
4847
 
lock_rec_insert_check_and_lock(
4848
 
/*===========================*/
4849
 
                                /* out: DB_SUCCESS, DB_LOCK_WAIT,
4850
 
                                DB_DEADLOCK, or DB_QUE_THR_SUSPENDED */
4851
 
        ulint           flags,  /* in: if BTR_NO_LOCKING_FLAG bit is
4852
 
                                set, does nothing */
4853
 
        rec_t*          rec,    /* in: record after which to insert */
4854
 
        buf_block_t*    block,  /* in/out: buffer block of rec */
4855
 
        dict_index_t*   index,  /* in: index */
4856
 
        que_thr_t*      thr,    /* in: query thread */
4857
 
        ibool*          inherit)/* out: set to TRUE if the new
4858
 
                                inserted record maybe should inherit
4859
 
                                LOCK_GAP type locks from the successor
4860
 
                                record */
4861
 
{
4862
 
        const rec_t*    next_rec;
4863
 
        trx_t*          trx;
4864
 
        lock_t*         lock;
4865
 
        ulint           err;
4866
 
        ulint           next_rec_heap_no;
4867
 
 
4868
 
        ut_ad(block->frame == page_align(rec));
4869
 
 
4870
 
        if (flags & BTR_NO_LOCKING_FLAG) {
4871
 
 
4872
 
                return(DB_SUCCESS);
4873
 
        }
4874
 
 
4875
 
        trx = thr_get_trx(thr);
4876
 
        next_rec = page_rec_get_next(rec);
4877
 
        next_rec_heap_no = page_rec_get_heap_no(next_rec);
4878
 
 
4879
 
        lock_mutex_enter_kernel();
4880
 
 
4881
 
        /* When inserting a record into an index, the table must be at
4882
 
        least IX-locked or we must be building an index, in which case
4883
 
        the table must be at least S-locked. */
4884
 
        ut_ad(lock_table_has(trx, index->table, LOCK_IX)
4885
 
              || (*index->name == TEMP_INDEX_PREFIX
4886
 
                  && lock_table_has(trx, index->table, LOCK_S)));
4887
 
 
4888
 
        lock = lock_rec_get_first(block, next_rec_heap_no);
4889
 
 
4890
 
        if (UNIV_LIKELY(lock == NULL)) {
4891
 
                /* We optimize CPU time usage in the simplest case */
4892
 
 
4893
 
                lock_mutex_exit_kernel();
4894
 
 
4895
 
                if (!dict_index_is_clust(index)) {
4896
 
                        /* Update the page max trx id field */
4897
 
                        page_update_max_trx_id(block,
4898
 
                                               buf_block_get_page_zip(block),
4899
 
                                               trx->id);
4900
 
                }
4901
 
 
4902
 
                *inherit = FALSE;
4903
 
 
4904
 
                return(DB_SUCCESS);
4905
 
        }
4906
 
 
4907
 
        *inherit = TRUE;
4908
 
 
4909
 
        /* If another transaction has an explicit lock request which locks
4910
 
        the gap, waiting or granted, on the successor, the insert has to wait.
4911
 
 
4912
 
        An exception is the case where the lock by the another transaction
4913
 
        is a gap type lock which it placed to wait for its turn to insert. We
4914
 
        do not consider that kind of a lock conflicting with our insert. This
4915
 
        eliminates an unnecessary deadlock which resulted when 2 transactions
4916
 
        had to wait for their insert. Both had waiting gap type lock requests
4917
 
        on the successor, which produced an unnecessary deadlock. */
4918
 
 
4919
 
        if (lock_rec_other_has_conflicting(
4920
 
                    LOCK_X | LOCK_GAP | LOCK_INSERT_INTENTION,
4921
 
                    block, next_rec_heap_no, trx)) {
4922
 
 
4923
 
                /* Note that we may get DB_SUCCESS also here! */
4924
 
                err = lock_rec_enqueue_waiting(LOCK_X | LOCK_GAP
4925
 
                                               | LOCK_INSERT_INTENTION,
4926
 
                                               block, next_rec_heap_no,
4927
 
                                               index, thr);
4928
 
        } else {
4929
 
                err = DB_SUCCESS;
4930
 
        }
4931
 
 
4932
 
        lock_mutex_exit_kernel();
4933
 
 
4934
 
        if ((err == DB_SUCCESS) && !dict_index_is_clust(index)) {
4935
 
                /* Update the page max trx id field */
4936
 
                page_update_max_trx_id(block,
4937
 
                                       buf_block_get_page_zip(block),
4938
 
                                       trx->id);
4939
 
        }
4940
 
 
4941
 
#ifdef UNIV_DEBUG
4942
 
        {
4943
 
                mem_heap_t*     heap            = NULL;
4944
 
                ulint           offsets_[REC_OFFS_NORMAL_SIZE];
4945
 
                const ulint*    offsets;
4946
 
                rec_offs_init(offsets_);
4947
 
 
4948
 
                offsets = rec_get_offsets(next_rec, index, offsets_,
4949
 
                                          ULINT_UNDEFINED, &heap);
4950
 
                ut_ad(lock_rec_queue_validate(block,
4951
 
                                              next_rec, index, offsets));
4952
 
                if (UNIV_LIKELY_NULL(heap)) {
4953
 
                        mem_heap_free(heap);
4954
 
                }
4955
 
        }
4956
 
#endif /* UNIV_DEBUG */
4957
 
 
4958
 
        return(err);
4959
 
}
4960
 
 
4961
 
/*************************************************************************
4962
 
If a transaction has an implicit x-lock on a record, but no explicit x-lock
4963
 
set on the record, sets one for it. NOTE that in the case of a secondary
4964
 
index, the kernel mutex may get temporarily released. */
4965
 
static
4966
 
void
4967
 
lock_rec_convert_impl_to_expl(
4968
 
/*==========================*/
4969
 
        const buf_block_t*      block,  /* in: buffer block of rec */
4970
 
        const rec_t*            rec,    /* in: user record on page */
4971
 
        dict_index_t*           index,  /* in: index of record */
4972
 
        const ulint*            offsets)/* in: rec_get_offsets(rec, index) */
4973
 
{
4974
 
        trx_t*  impl_trx;
4975
 
 
4976
 
        ut_ad(mutex_own(&kernel_mutex));
4977
 
        ut_ad(page_rec_is_user_rec(rec));
4978
 
        ut_ad(rec_offs_validate(rec, index, offsets));
4979
 
        ut_ad(!page_rec_is_comp(rec) == !rec_offs_comp(offsets));
4980
 
 
4981
 
        if (dict_index_is_clust(index)) {
4982
 
                impl_trx = lock_clust_rec_some_has_impl(rec, index, offsets);
4983
 
        } else {
4984
 
                impl_trx = lock_sec_rec_some_has_impl_off_kernel(
4985
 
                        rec, index, offsets);
4986
 
        }
4987
 
 
4988
 
        if (impl_trx) {
4989
 
                ulint   heap_no = page_rec_get_heap_no(rec);
4990
 
 
4991
 
                /* If the transaction has no explicit x-lock set on the
4992
 
                record, set one for it */
4993
 
 
4994
 
                if (!lock_rec_has_expl(LOCK_X | LOCK_REC_NOT_GAP, block,
4995
 
                                       heap_no, impl_trx)) {
4996
 
 
4997
 
                        lock_rec_add_to_queue(
4998
 
                                LOCK_REC | LOCK_X | LOCK_REC_NOT_GAP,
4999
 
                                block, heap_no, index, impl_trx);
5000
 
                }
5001
 
        }
5002
 
}
5003
 
 
5004
 
/*************************************************************************
5005
 
Checks if locks of other transactions prevent an immediate modify (update,
5006
 
delete mark, or delete unmark) of a clustered index record. If they do,
5007
 
first tests if the query thread should anyway be suspended for some
5008
 
reason; if not, then puts the transaction and the query thread to the
5009
 
lock wait state and inserts a waiting request for a record x-lock to the
5010
 
lock queue. */
5011
 
UNIV_INTERN
5012
 
ulint
5013
 
lock_clust_rec_modify_check_and_lock(
5014
 
/*=================================*/
5015
 
                                        /* out: DB_SUCCESS,
5016
 
                                        DB_LOCK_WAIT, DB_DEADLOCK, or
5017
 
                                        DB_QUE_THR_SUSPENDED */
5018
 
        ulint                   flags,  /* in: if BTR_NO_LOCKING_FLAG
5019
 
                                        bit is set, does nothing */
5020
 
        const buf_block_t*      block,  /* in: buffer block of rec */
5021
 
        const rec_t*            rec,    /* in: record which should be
5022
 
                                        modified */
5023
 
        dict_index_t*           index,  /* in: clustered index */
5024
 
        const ulint*            offsets,/* in: rec_get_offsets(rec, index) */
5025
 
        que_thr_t*              thr)    /* in: query thread */
5026
 
{
5027
 
        ulint   err;
5028
 
        ulint   heap_no;
5029
 
 
5030
 
        ut_ad(rec_offs_validate(rec, index, offsets));
5031
 
        ut_ad(dict_index_is_clust(index));
5032
 
        ut_ad(block->frame == page_align(rec));
5033
 
 
5034
 
        if (flags & BTR_NO_LOCKING_FLAG) {
5035
 
 
5036
 
                return(DB_SUCCESS);
5037
 
        }
5038
 
 
5039
 
        heap_no = rec_offs_comp(offsets)
5040
 
                ? rec_get_heap_no_new(rec)
5041
 
                : rec_get_heap_no_old(rec);
5042
 
 
5043
 
        lock_mutex_enter_kernel();
5044
 
 
5045
 
        ut_ad(lock_table_has(thr_get_trx(thr), index->table, LOCK_IX));
5046
 
 
5047
 
        /* If a transaction has no explicit x-lock set on the record, set one
5048
 
        for it */
5049
 
 
5050
 
        lock_rec_convert_impl_to_expl(block, rec, index, offsets);
5051
 
 
5052
 
        err = lock_rec_lock(TRUE, LOCK_X | LOCK_REC_NOT_GAP,
5053
 
                            block, heap_no, index, thr);
5054
 
 
5055
 
        lock_mutex_exit_kernel();
5056
 
 
5057
 
        ut_ad(lock_rec_queue_validate(block, rec, index, offsets));
5058
 
 
5059
 
        return(err);
5060
 
}
5061
 
 
5062
 
/*************************************************************************
5063
 
Checks if locks of other transactions prevent an immediate modify (delete
5064
 
mark or delete unmark) of a secondary index record. */
5065
 
UNIV_INTERN
5066
 
ulint
5067
 
lock_sec_rec_modify_check_and_lock(
5068
 
/*===============================*/
5069
 
                                /* out: DB_SUCCESS, DB_LOCK_WAIT,
5070
 
                                DB_DEADLOCK, or DB_QUE_THR_SUSPENDED */
5071
 
        ulint           flags,  /* in: if BTR_NO_LOCKING_FLAG
5072
 
                                bit is set, does nothing */
5073
 
        buf_block_t*    block,  /* in/out: buffer block of rec */
5074
 
        rec_t*          rec,    /* in: record which should be
5075
 
                                modified; NOTE: as this is a secondary
5076
 
                                index, we always have to modify the
5077
 
                                clustered index record first: see the
5078
 
                                comment below */
5079
 
        dict_index_t*   index,  /* in: secondary index */
5080
 
        que_thr_t*      thr)    /* in: query thread */
5081
 
{
5082
 
        ulint   err;
5083
 
        ulint   heap_no;
5084
 
 
5085
 
        ut_ad(!dict_index_is_clust(index));
5086
 
        ut_ad(block->frame == page_align(rec));
5087
 
 
5088
 
        if (flags & BTR_NO_LOCKING_FLAG) {
5089
 
 
5090
 
                return(DB_SUCCESS);
5091
 
        }
5092
 
 
5093
 
        heap_no = page_rec_get_heap_no(rec);
5094
 
 
5095
 
        /* Another transaction cannot have an implicit lock on the record,
5096
 
        because when we come here, we already have modified the clustered
5097
 
        index record, and this would not have been possible if another active
5098
 
        transaction had modified this secondary index record. */
5099
 
 
5100
 
        lock_mutex_enter_kernel();
5101
 
 
5102
 
        ut_ad(lock_table_has(thr_get_trx(thr), index->table, LOCK_IX));
5103
 
 
5104
 
        err = lock_rec_lock(TRUE, LOCK_X | LOCK_REC_NOT_GAP,
5105
 
                            block, heap_no, index, thr);
5106
 
 
5107
 
        lock_mutex_exit_kernel();
5108
 
 
5109
 
#ifdef UNIV_DEBUG
5110
 
        {
5111
 
                mem_heap_t*     heap            = NULL;
5112
 
                ulint           offsets_[REC_OFFS_NORMAL_SIZE];
5113
 
                const ulint*    offsets;
5114
 
                rec_offs_init(offsets_);
5115
 
 
5116
 
                offsets = rec_get_offsets(rec, index, offsets_,
5117
 
                                          ULINT_UNDEFINED, &heap);
5118
 
                ut_ad(lock_rec_queue_validate(block, rec, index, offsets));
5119
 
                if (UNIV_LIKELY_NULL(heap)) {
5120
 
                        mem_heap_free(heap);
5121
 
                }
5122
 
        }
5123
 
#endif /* UNIV_DEBUG */
5124
 
 
5125
 
        if (err == DB_SUCCESS) {
5126
 
                /* Update the page max trx id field */
5127
 
                page_update_max_trx_id(block,
5128
 
                                       buf_block_get_page_zip(block),
5129
 
                                       thr_get_trx(thr)->id);
5130
 
        }
5131
 
 
5132
 
        return(err);
5133
 
}
5134
 
 
5135
 
/*************************************************************************
5136
 
Like the counterpart for a clustered index below, but now we read a
5137
 
secondary index record. */
5138
 
UNIV_INTERN
5139
 
ulint
5140
 
lock_sec_rec_read_check_and_lock(
5141
 
/*=============================*/
5142
 
                                        /* out: DB_SUCCESS,
5143
 
                                        DB_LOCK_WAIT, DB_DEADLOCK, or
5144
 
                                        DB_QUE_THR_SUSPENDED */
5145
 
        ulint                   flags,  /* in: if BTR_NO_LOCKING_FLAG
5146
 
                                        bit is set, does nothing */
5147
 
        const buf_block_t*      block,  /* in: buffer block of rec */
5148
 
        const rec_t*            rec,    /* in: user record or page
5149
 
                                        supremum record which should
5150
 
                                        be read or passed over by a
5151
 
                                        read cursor */
5152
 
        dict_index_t*           index,  /* in: secondary index */
5153
 
        const ulint*            offsets,/* in: rec_get_offsets(rec, index) */
5154
 
        enum lock_mode          mode,   /* in: mode of the lock which
5155
 
                                        the read cursor should set on
5156
 
                                        records: LOCK_S or LOCK_X; the
5157
 
                                        latter is possible in
5158
 
                                        SELECT FOR UPDATE */
5159
 
        ulint                   gap_mode,/* in: LOCK_ORDINARY, LOCK_GAP, or
5160
 
                                        LOCK_REC_NOT_GAP */
5161
 
        que_thr_t*              thr)    /* in: query thread */
5162
 
{
5163
 
        ulint   err;
5164
 
        ulint   heap_no;
5165
 
 
5166
 
        ut_ad(!dict_index_is_clust(index));
5167
 
        ut_ad(block->frame == page_align(rec));
5168
 
        ut_ad(page_rec_is_user_rec(rec) || page_rec_is_supremum(rec));
5169
 
        ut_ad(rec_offs_validate(rec, index, offsets));
5170
 
        ut_ad(mode == LOCK_X || mode == LOCK_S);
5171
 
 
5172
 
        if (flags & BTR_NO_LOCKING_FLAG) {
5173
 
 
5174
 
                return(DB_SUCCESS);
5175
 
        }
5176
 
 
5177
 
        heap_no = page_rec_get_heap_no(rec);
5178
 
 
5179
 
        lock_mutex_enter_kernel();
5180
 
 
5181
 
        ut_ad(mode != LOCK_X
5182
 
              || lock_table_has(thr_get_trx(thr), index->table, LOCK_IX));
5183
 
        ut_ad(mode != LOCK_S
5184
 
              || lock_table_has(thr_get_trx(thr), index->table, LOCK_IS));
5185
 
 
5186
 
        /* Some transaction may have an implicit x-lock on the record only
5187
 
        if the max trx id for the page >= min trx id for the trx list or a
5188
 
        database recovery is running. */
5189
 
 
5190
 
        if (((ut_dulint_cmp(page_get_max_trx_id(block->frame),
5191
 
                            trx_list_get_min_trx_id()) >= 0)
5192
 
             || recv_recovery_is_on())
5193
 
            && !page_rec_is_supremum(rec)) {
5194
 
 
5195
 
                lock_rec_convert_impl_to_expl(block, rec, index, offsets);
5196
 
        }
5197
 
 
5198
 
        err = lock_rec_lock(FALSE, mode | gap_mode,
5199
 
                            block, heap_no, index, thr);
5200
 
 
5201
 
        lock_mutex_exit_kernel();
5202
 
 
5203
 
        ut_ad(lock_rec_queue_validate(block, rec, index, offsets));
5204
 
 
5205
 
        return(err);
5206
 
}
5207
 
 
5208
 
/*************************************************************************
5209
 
Checks if locks of other transactions prevent an immediate read, or passing
5210
 
over by a read cursor, of a clustered index record. If they do, first tests
5211
 
if the query thread should anyway be suspended for some reason; if not, then
5212
 
puts the transaction and the query thread to the lock wait state and inserts a
5213
 
waiting request for a record lock to the lock queue. Sets the requested mode
5214
 
lock on the record. */
5215
 
UNIV_INTERN
5216
 
ulint
5217
 
lock_clust_rec_read_check_and_lock(
5218
 
/*===============================*/
5219
 
                                        /* out: DB_SUCCESS,
5220
 
                                        DB_LOCK_WAIT, DB_DEADLOCK, or
5221
 
                                        DB_QUE_THR_SUSPENDED */
5222
 
        ulint                   flags,  /* in: if BTR_NO_LOCKING_FLAG
5223
 
                                        bit is set, does nothing */
5224
 
        const buf_block_t*      block,  /* in: buffer block of rec */
5225
 
        const rec_t*            rec,    /* in: user record or page
5226
 
                                        supremum record which should
5227
 
                                        be read or passed over by a
5228
 
                                        read cursor */
5229
 
        dict_index_t*           index,  /* in: clustered index */
5230
 
        const ulint*            offsets,/* in: rec_get_offsets(rec, index) */
5231
 
        enum lock_mode          mode,   /* in: mode of the lock which
5232
 
                                        the read cursor should set on
5233
 
                                        records: LOCK_S or LOCK_X; the
5234
 
                                        latter is possible in
5235
 
                                        SELECT FOR UPDATE */
5236
 
        ulint                   gap_mode,/* in: LOCK_ORDINARY, LOCK_GAP, or
5237
 
                                        LOCK_REC_NOT_GAP */
5238
 
        que_thr_t*              thr)    /* in: query thread */
5239
 
{
5240
 
        ulint   err;
5241
 
        ulint   heap_no;
5242
 
 
5243
 
        ut_ad(dict_index_is_clust(index));
5244
 
        ut_ad(block->frame == page_align(rec));
5245
 
        ut_ad(page_rec_is_user_rec(rec) || page_rec_is_supremum(rec));
5246
 
        ut_ad(gap_mode == LOCK_ORDINARY || gap_mode == LOCK_GAP
5247
 
              || gap_mode == LOCK_REC_NOT_GAP);
5248
 
        ut_ad(rec_offs_validate(rec, index, offsets));
5249
 
 
5250
 
        if (flags & BTR_NO_LOCKING_FLAG) {
5251
 
 
5252
 
                return(DB_SUCCESS);
5253
 
        }
5254
 
 
5255
 
        heap_no = page_rec_get_heap_no(rec);
5256
 
 
5257
 
        lock_mutex_enter_kernel();
5258
 
 
5259
 
        ut_ad(mode != LOCK_X
5260
 
              || lock_table_has(thr_get_trx(thr), index->table, LOCK_IX));
5261
 
        ut_ad(mode != LOCK_S
5262
 
              || lock_table_has(thr_get_trx(thr), index->table, LOCK_IS));
5263
 
 
5264
 
        if (UNIV_LIKELY(heap_no != PAGE_HEAP_NO_SUPREMUM)) {
5265
 
 
5266
 
                lock_rec_convert_impl_to_expl(block, rec, index, offsets);
5267
 
        }
5268
 
 
5269
 
        err = lock_rec_lock(FALSE, mode | gap_mode,
5270
 
                            block, heap_no, index, thr);
5271
 
 
5272
 
        lock_mutex_exit_kernel();
5273
 
 
5274
 
        ut_ad(lock_rec_queue_validate(block, rec, index, offsets));
5275
 
 
5276
 
        return(err);
5277
 
}
5278
 
/*************************************************************************
5279
 
Checks if locks of other transactions prevent an immediate read, or passing
5280
 
over by a read cursor, of a clustered index record. If they do, first tests
5281
 
if the query thread should anyway be suspended for some reason; if not, then
5282
 
puts the transaction and the query thread to the lock wait state and inserts a
5283
 
waiting request for a record lock to the lock queue. Sets the requested mode
5284
 
lock on the record. This is an alternative version of
5285
 
lock_clust_rec_read_check_and_lock() that does not require the parameter
5286
 
"offsets". */
5287
 
UNIV_INTERN
5288
 
ulint
5289
 
lock_clust_rec_read_check_and_lock_alt(
5290
 
/*===================================*/
5291
 
                                        /* out: DB_SUCCESS,
5292
 
                                        DB_LOCK_WAIT, DB_DEADLOCK, or
5293
 
                                        DB_QUE_THR_SUSPENDED */
5294
 
        ulint                   flags,  /* in: if BTR_NO_LOCKING_FLAG
5295
 
                                        bit is set, does nothing */
5296
 
        const buf_block_t*      block,  /* in: buffer block of rec */
5297
 
        const rec_t*            rec,    /* in: user record or page
5298
 
                                        supremum record which should
5299
 
                                        be read or passed over by a
5300
 
                                        read cursor */
5301
 
        dict_index_t*           index,  /* in: clustered index */
5302
 
        enum lock_mode          mode,   /* in: mode of the lock which
5303
 
                                        the read cursor should set on
5304
 
                                        records: LOCK_S or LOCK_X; the
5305
 
                                        latter is possible in
5306
 
                                        SELECT FOR UPDATE */
5307
 
        ulint                   gap_mode,/* in: LOCK_ORDINARY, LOCK_GAP, or
5308
 
                                        LOCK_REC_NOT_GAP */
5309
 
        que_thr_t*              thr)    /* in: query thread */
5310
 
{
5311
 
        mem_heap_t*     tmp_heap        = NULL;
5312
 
        ulint           offsets_[REC_OFFS_NORMAL_SIZE];
5313
 
        ulint*          offsets         = offsets_;
5314
 
        ulint           ret;
5315
 
        rec_offs_init(offsets_);
5316
 
 
5317
 
        offsets = rec_get_offsets(rec, index, offsets,
5318
 
                                  ULINT_UNDEFINED, &tmp_heap);
5319
 
        ret = lock_clust_rec_read_check_and_lock(flags, block, rec, index,
5320
 
                                                 offsets, mode, gap_mode, thr);
5321
 
        if (tmp_heap) {
5322
 
                mem_heap_free(tmp_heap);
5323
 
        }
5324
 
        return(ret);
5325
 
}
5326
 
 
5327
 
/***********************************************************************
5328
 
Gets the type of a lock. Non-inline version for using outside of the
5329
 
lock module. */
5330
 
UNIV_INTERN
5331
 
ulint
5332
 
lock_get_type(
5333
 
/*==========*/
5334
 
                                /* out: LOCK_TABLE or LOCK_REC */
5335
 
        const lock_t*   lock)   /* in: lock */
5336
 
{
5337
 
        return(lock_get_type_low(lock));
5338
 
}
5339
 
 
5340
 
/***********************************************************************
5341
 
Gets the id of the transaction owning a lock. */
5342
 
UNIV_INTERN
5343
 
ullint
5344
 
lock_get_trx_id(
5345
 
/*============*/
5346
 
                                /* out: transaction id */
5347
 
        const lock_t*   lock)   /* in: lock */
5348
 
{
5349
 
        return(trx_get_id(lock->trx));
5350
 
}
5351
 
 
5352
 
/***********************************************************************
5353
 
Gets the mode of a lock in a human readable string.
5354
 
The string should not be free()'d or modified. */
5355
 
UNIV_INTERN
5356
 
const char*
5357
 
lock_get_mode_str(
5358
 
/*==============*/
5359
 
                                /* out: lock mode */
5360
 
        const lock_t*   lock)   /* in: lock */
5361
 
{
5362
 
        ibool   is_gap_lock;
5363
 
 
5364
 
        is_gap_lock = lock_get_type_low(lock) == LOCK_REC
5365
 
                && lock_rec_get_gap(lock);
5366
 
 
5367
 
        switch (lock_get_mode(lock)) {
5368
 
        case LOCK_S:
5369
 
                if (is_gap_lock) {
5370
 
                        return("S,GAP");
5371
 
                } else {
5372
 
                        return("S");
5373
 
                }
5374
 
        case LOCK_X:
5375
 
                if (is_gap_lock) {
5376
 
                        return("X,GAP");
5377
 
                } else {
5378
 
                        return("X");
5379
 
                }
5380
 
        case LOCK_IS:
5381
 
                if (is_gap_lock) {
5382
 
                        return("IS,GAP");
5383
 
                } else {
5384
 
                        return("IS");
5385
 
                }
5386
 
        case LOCK_IX:
5387
 
                if (is_gap_lock) {
5388
 
                        return("IX,GAP");
5389
 
                } else {
5390
 
                        return("IX");
5391
 
                }
5392
 
        case LOCK_AUTO_INC:
5393
 
                return("AUTO_INC");
5394
 
        default:
5395
 
                return("UNKNOWN");
5396
 
        }
5397
 
}
5398
 
 
5399
 
/***********************************************************************
5400
 
Gets the type of a lock in a human readable string.
5401
 
The string should not be free()'d or modified. */
5402
 
UNIV_INTERN
5403
 
const char*
5404
 
lock_get_type_str(
5405
 
/*==============*/
5406
 
                                /* out: lock type */
5407
 
        const lock_t*   lock)   /* in: lock */
5408
 
{
5409
 
        switch (lock_get_type_low(lock)) {
5410
 
        case LOCK_REC:
5411
 
                return("RECORD");
5412
 
        case LOCK_TABLE:
5413
 
                return("TABLE");
5414
 
        default:
5415
 
                return("UNKNOWN");
5416
 
        }
5417
 
}
5418
 
 
5419
 
/***********************************************************************
5420
 
Gets the table on which the lock is. */
5421
 
UNIV_INLINE
5422
 
dict_table_t*
5423
 
lock_get_table(
5424
 
/*===========*/
5425
 
                                /* out: table */
5426
 
        const lock_t*   lock)   /* in: lock */
5427
 
{
5428
 
        switch (lock_get_type_low(lock)) {
5429
 
        case LOCK_REC:
5430
 
                return(lock->index->table);
5431
 
        case LOCK_TABLE:
5432
 
                return(lock->un_member.tab_lock.table);
5433
 
        default:
5434
 
                ut_error;
5435
 
                return(NULL);
5436
 
        }
5437
 
}
5438
 
 
5439
 
/***********************************************************************
5440
 
Gets the id of the table on which the lock is. */
5441
 
UNIV_INTERN
5442
 
ullint
5443
 
lock_get_table_id(
5444
 
/*==============*/
5445
 
                                /* out: id of the table */
5446
 
        const lock_t*   lock)   /* in: lock */
5447
 
{
5448
 
        dict_table_t*   table;
5449
 
 
5450
 
        table = lock_get_table(lock);
5451
 
 
5452
 
        return((ullint)ut_conv_dulint_to_longlong(table->id));
5453
 
}
5454
 
 
5455
 
/***********************************************************************
5456
 
Gets the name of the table on which the lock is.
5457
 
The string should not be free()'d or modified. */
5458
 
UNIV_INTERN
5459
 
const char*
5460
 
lock_get_table_name(
5461
 
/*================*/
5462
 
                                /* out: name of the table */
5463
 
        const lock_t*   lock)   /* in: lock */
5464
 
{
5465
 
        dict_table_t*   table;
5466
 
 
5467
 
        table = lock_get_table(lock);
5468
 
 
5469
 
        return(table->name);
5470
 
}
5471
 
 
5472
 
/***********************************************************************
5473
 
For a record lock, gets the index on which the lock is. */
5474
 
UNIV_INTERN
5475
 
const dict_index_t*
5476
 
lock_rec_get_index(
5477
 
/*===============*/
5478
 
                                /* out: index */
5479
 
        const lock_t*   lock)   /* in: lock */
5480
 
{
5481
 
        ut_a(lock_get_type_low(lock) == LOCK_REC);
5482
 
 
5483
 
        return(lock->index);
5484
 
}
5485
 
 
5486
 
/***********************************************************************
5487
 
For a record lock, gets the name of the index on which the lock is.
5488
 
The string should not be free()'d or modified. */
5489
 
UNIV_INTERN
5490
 
const char*
5491
 
lock_rec_get_index_name(
5492
 
/*====================*/
5493
 
                                /* out: name of the index */
5494
 
        const lock_t*   lock)   /* in: lock */
5495
 
{
5496
 
        ut_a(lock_get_type_low(lock) == LOCK_REC);
5497
 
 
5498
 
        return(lock->index->name);
5499
 
}
5500
 
 
5501
 
/***********************************************************************
5502
 
For a record lock, gets the tablespace number on which the lock is. */
5503
 
UNIV_INTERN
5504
 
ulint
5505
 
lock_rec_get_space_id(
5506
 
/*==================*/
5507
 
                                /* out: tablespace number */
5508
 
        const lock_t*   lock)   /* in: lock */
5509
 
{
5510
 
        ut_a(lock_get_type_low(lock) == LOCK_REC);
5511
 
 
5512
 
        return(lock->un_member.rec_lock.space);
5513
 
}
5514
 
 
5515
 
/***********************************************************************
5516
 
For a record lock, gets the page number on which the lock is. */
5517
 
UNIV_INTERN
5518
 
ulint
5519
 
lock_rec_get_page_no(
5520
 
/*=================*/
5521
 
                                /* out: page number */
5522
 
        const lock_t*   lock)   /* in: lock */
5523
 
{
5524
 
        ut_a(lock_get_type_low(lock) == LOCK_REC);
5525
 
 
5526
 
        return(lock->un_member.rec_lock.page_no);
5527
 
}