]> git.vpit.fr Git - perl/modules/Variable-Magic.git/blob - Magic.xs
33fc60e70e295a065e1a990fa0f878c0621ca3a3
[perl/modules/Variable-Magic.git] / Magic.xs
1 /* This file is part of the Variable::Magic Perl module.
2  * See http://search.cpan.org/dist/Variable-Magic/ */
3
4 #include <stdarg.h> /* <va_list>, va_{start,arg,end}, ... */
5
6 #include <stdio.h>  /* sprintf() */
7
8 #define PERL_NO_GET_CONTEXT
9 #include "EXTERN.h"
10 #include "perl.h"
11 #include "XSUB.h"
12
13 #define __PACKAGE__ "Variable::Magic"
14
15 #undef VOID2
16 #ifdef __cplusplus
17 # define VOID2(T, P) static_cast<T>(P)
18 #else
19 # define VOID2(T, P) (P)
20 #endif
21
22 #ifndef VMG_PERL_PATCHLEVEL
23 # ifdef PERL_PATCHNUM
24 #  define VMG_PERL_PATCHLEVEL PERL_PATCHNUM
25 # else
26 #  define VMG_PERL_PATCHLEVEL 0
27 # endif
28 #endif
29
30 #define VMG_HAS_PERL(R, V, S) (PERL_REVISION > (R) || (PERL_REVISION == (R) && (PERL_VERSION > (V) || (PERL_VERSION == (V) && (PERL_SUBVERSION >= (S))))))
31
32 #define VMG_HAS_PERL_BRANCH(R, V, S) (PERL_REVISION == (R) && PERL_VERSION == (V) && PERL_SUBVERSION >= (S))
33
34 #define VMG_HAS_PERL_MAINT(R, V, S, P) (PERL_REVISION == (R) && PERL_VERSION == (V) && (VMG_PERL_PATCHLEVEL >= (P) || (!VMG_PERL_PATCHLEVEL && PERL_SUBVERSION >= (S))))
35
36 /* --- Threads and multiplicity -------------------------------------------- */
37
38 #ifndef NOOP
39 # define NOOP
40 #endif
41
42 #ifndef dNOOP
43 # define dNOOP
44 #endif
45
46 /* Safe unless stated otherwise in Makefile.PL */
47 #ifndef VMG_FORKSAFE
48 # define VMG_FORKSAFE 1
49 #endif
50
51 #ifndef VMG_MULTIPLICITY
52 # if defined(MULTIPLICITY)
53 #  define VMG_MULTIPLICITY 1
54 # else
55 #  define VMG_MULTIPLICITY 0
56 # endif
57 #endif
58 #if VMG_MULTIPLICITY
59 # ifndef PERL_IMPLICIT_CONTEXT
60 #  error MULTIPLICITY builds must set PERL_IMPLICIT_CONTEXT
61 # endif
62 #endif
63
64 #if VMG_MULTIPLICITY && defined(USE_ITHREADS) && defined(dMY_CXT) && defined(MY_CXT) && defined(START_MY_CXT) && defined(MY_CXT_INIT) && (defined(MY_CXT_CLONE) || defined(dMY_CXT_SV))
65 # ifndef VMG_THREADSAFE
66 #  define VMG_THREADSAFE 1
67 # endif
68 # ifndef MY_CXT_CLONE
69 #  define MY_CXT_CLONE \
70     dMY_CXT_SV;                                                      \
71     my_cxt_t *my_cxtp = (my_cxt_t*)SvPVX(newSV(sizeof(my_cxt_t)-1)); \
72     Copy(INT2PTR(my_cxt_t*, SvUV(my_cxt_sv)), my_cxtp, 1, my_cxt_t); \
73     sv_setuv(my_cxt_sv, PTR2UV(my_cxtp))
74 # endif
75 #else
76 # undef  VMG_THREADSAFE
77 # define VMG_THREADSAFE 0
78 # undef  dMY_CXT
79 # define dMY_CXT      dNOOP
80 # undef  MY_CXT
81 # define MY_CXT       vmg_globaldata
82 # undef  START_MY_CXT
83 # define START_MY_CXT STATIC my_cxt_t MY_CXT;
84 # undef  MY_CXT_INIT
85 # define MY_CXT_INIT  NOOP
86 # undef  MY_CXT_CLONE
87 # define MY_CXT_CLONE NOOP
88 #endif
89
90 #if VMG_THREADSAFE
91 # define VMG_LOCK(M)   MUTEX_LOCK(M)
92 # define VMG_UNLOCK(M) MUTEX_UNLOCK(M)
93 #else
94 # define VMG_LOCK(M)
95 # define VMG_UNLOCK(M)
96 #endif
97
98 /* --- Compatibility ------------------------------------------------------- */
99
100 #ifndef Newx
101 # define Newx(v, n, c) New(0, v, n, c)
102 #endif
103
104 #ifndef SvMAGIC_set
105 # define SvMAGIC_set(sv, val) (SvMAGIC(sv) = (val))
106 #endif
107
108 #ifndef SvRV_const
109 # define SvRV_const(sv) SvRV((SV *) sv)
110 #endif
111
112 #ifndef SvREFCNT_inc_simple_void
113 # define SvREFCNT_inc_simple_void(sv) ((void) SvREFCNT_inc(sv))
114 #endif
115
116 #ifndef mPUSHu
117 # define mPUSHu(U) PUSHs(sv_2mortal(newSVuv(U)))
118 #endif
119
120 #ifndef PERL_MAGIC_ext
121 # define PERL_MAGIC_ext '~'
122 #endif
123
124 #ifndef PERL_MAGIC_tied
125 # define PERL_MAGIC_tied 'P'
126 #endif
127
128 #ifndef MGf_LOCAL
129 # define MGf_LOCAL 0
130 #endif
131
132 #ifndef IN_PERL_COMPILETIME
133 # define IN_PERL_COMPILETIME (PL_curcop == &PL_compiling)
134 #endif
135
136 #ifdef DEBUGGING
137 # define VMG_ASSERT(C) assert(C)
138 #else
139 # define VMG_ASSERT(C)
140 #endif
141
142 /* uvar magic and Hash::Util::FieldHash were commited with 28419, but we only
143  * enable them on 5.10 */
144 #if VMG_HAS_PERL(5, 10, 0)
145 # define VMG_UVAR 1
146 #else
147 # define VMG_UVAR 0
148 #endif
149
150 #if VMG_HAS_PERL_MAINT(5, 11, 0, 32969) || VMG_HAS_PERL(5, 12, 0)
151 # define VMG_COMPAT_SCALAR_LENGTH_NOLEN 1
152 #else
153 # define VMG_COMPAT_SCALAR_LENGTH_NOLEN 0
154 #endif
155
156 #if VMG_HAS_PERL(5, 17, 4)
157 # define VMG_COMPAT_SCALAR_NOLEN 1
158 #else
159 # define VMG_COMPAT_SCALAR_NOLEN 0
160 #endif
161
162 /* Applied to dev-5.9 as 25854, integrated to maint-5.8 as 28160, partially
163  * reverted to dev-5.11 as 9cdcb38b */
164 #if VMG_HAS_PERL_MAINT(5, 8, 9, 28160) || VMG_HAS_PERL_MAINT(5, 9, 3, 25854) || VMG_HAS_PERL(5, 10, 0)
165 # ifndef VMG_COMPAT_ARRAY_PUSH_NOLEN
166 #  if VMG_HAS_PERL(5, 11, 0)
167 #   define VMG_COMPAT_ARRAY_PUSH_NOLEN 0
168 #  else
169 #   define VMG_COMPAT_ARRAY_PUSH_NOLEN 1
170 #  endif
171 # endif
172 # ifndef VMG_COMPAT_ARRAY_PUSH_NOLEN_VOID
173 #  define VMG_COMPAT_ARRAY_PUSH_NOLEN_VOID 1
174 # endif
175 #else
176 # ifndef VMG_COMPAT_ARRAY_PUSH_NOLEN
177 #  define VMG_COMPAT_ARRAY_PUSH_NOLEN 0
178 # endif
179 # ifndef VMG_COMPAT_ARRAY_PUSH_NOLEN_VOID
180 #  define VMG_COMPAT_ARRAY_PUSH_NOLEN_VOID 0
181 # endif
182 #endif
183
184 /* Applied to dev-5.11 as 34908 */
185 #if VMG_HAS_PERL_MAINT(5, 11, 0, 34908) || VMG_HAS_PERL(5, 12, 0)
186 # define VMG_COMPAT_ARRAY_UNSHIFT_NOLEN_VOID 1
187 #else
188 # define VMG_COMPAT_ARRAY_UNSHIFT_NOLEN_VOID 0
189 #endif
190
191 /* Applied to dev-5.9 as 31473 (see #43357), integrated to maint-5.8 as 32542 */
192 #if VMG_HAS_PERL_MAINT(5, 8, 9, 32542) || VMG_HAS_PERL_MAINT(5, 9, 5, 31473) || VMG_HAS_PERL(5, 10, 0)
193 # define VMG_COMPAT_ARRAY_UNDEF_CLEAR 1
194 #else
195 # define VMG_COMPAT_ARRAY_UNDEF_CLEAR 0
196 #endif
197
198 #if VMG_HAS_PERL(5, 11, 0)
199 # define VMG_COMPAT_HASH_DELETE_NOUVAR_VOID 1
200 #else
201 # define VMG_COMPAT_HASH_DELETE_NOUVAR_VOID 0
202 #endif
203
204 #if VMG_HAS_PERL(5, 17, 0)
205 # define VMG_COMPAT_CODE_COPY_CLONE 1
206 #else
207 # define VMG_COMPAT_CODE_COPY_CLONE 0
208 #endif
209
210 #if VMG_HAS_PERL(5, 13, 2)
211 # define VMG_COMPAT_GLOB_GET 1
212 #else
213 # define VMG_COMPAT_GLOB_GET 0
214 #endif
215
216 #define VMG_PROPAGATE_ERRSV_NEEDS_TRAMPOLINE (VMG_HAS_PERL(5, 10, 0) && !VMG_HAS_PERL(5, 10, 1))
217
218 /* NewOp() isn't public in perl 5.8.0. */
219 #define VMG_RESET_RMG_NEEDS_TRAMPOLINE (VMG_UVAR && (VMG_THREADSAFE || !VMG_HAS_PERL(5, 8, 1)))
220
221 /* ... Bug-free mg_magical ................................................. */
222
223 /* See the discussion at http://www.xray.mpe.mpg.de/mailing-lists/perl5-porters/2008-01/msg00036.html */
224
225 #if VMG_HAS_PERL(5, 11, 3)
226
227 #define vmg_mg_magical(S) mg_magical(S)
228
229 #else
230
231 static void vmg_mg_magical(SV *sv) {
232  const MAGIC *mg;
233
234  SvMAGICAL_off(sv);
235  if ((mg = SvMAGIC(sv))) {
236   do {
237    const MGVTBL* const vtbl = mg->mg_virtual;
238    if (vtbl) {
239     if (vtbl->svt_get && !(mg->mg_flags & MGf_GSKIP))
240      SvGMAGICAL_on(sv);
241     if (vtbl->svt_set)
242      SvSMAGICAL_on(sv);
243     if (vtbl->svt_clear)
244      SvRMAGICAL_on(sv);
245    }
246   } while ((mg = mg->mg_moremagic));
247   if (!(SvFLAGS(sv) & (SVs_GMG|SVs_SMG)))
248    SvRMAGICAL_on(sv);
249  }
250 }
251
252 #endif
253
254 /* --- Trampoline ops ------------------------------------------------------ */
255
256 #define VMG_NEEDS_TRAMPOLINE VMG_PROPAGATE_ERRSV_NEEDS_TRAMPOLINE || VMG_RESET_RMG_NEEDS_TRAMPOLINE
257
258 #if VMG_NEEDS_TRAMPOLINE
259
260 typedef struct {
261  OP   temp;
262  SVOP target;
263 } vmg_trampoline;
264
265 static void vmg_trampoline_init(vmg_trampoline *t, OP *(*cb)(pTHX)) {
266  t->temp.op_type    = OP_STUB;
267  t->temp.op_ppaddr  = 0;
268  t->temp.op_next    = (OP *) &t->target;
269  t->temp.op_flags   = 0;
270  t->temp.op_private = 0;
271
272  t->target.op_type    = OP_STUB;
273  t->target.op_ppaddr  = cb;
274  t->target.op_next    = NULL;
275  t->target.op_flags   = 0;
276  t->target.op_private = 0;
277  t->target.op_sv      = NULL;
278 }
279
280 static OP *vmg_trampoline_bump(pTHX_ vmg_trampoline *t, SV *sv, OP *o) {
281 #define vmg_trampoline_bump(T, S, O) vmg_trampoline_bump(aTHX_ (T), (S), (O))
282  t->temp         = *o;
283  t->temp.op_next = (OP *) &t->target;
284
285  t->target.op_sv   = sv;
286  t->target.op_next = o->op_next;
287
288  return &t->temp;
289 }
290
291 #endif /* VMG_NEEDS_TRAMPOLINE */
292
293 /* --- Cleaner version of sv_magicext() ------------------------------------ */
294
295 static MAGIC *vmg_sv_magicext(pTHX_ SV *sv, SV *obj, const MGVTBL *vtbl, const void *ptr, I32 len) {
296 #define vmg_sv_magicext(S, O, V, P, L) vmg_sv_magicext(aTHX_ (S), (O), (V), (P), (L))
297  MAGIC *mg;
298
299  mg = sv_magicext(sv, obj, PERL_MAGIC_ext, vtbl, ptr, len);
300  if (!mg)
301   return NULL;
302
303  mg->mg_private = 0;
304
305  if (vtbl->svt_copy)
306   mg->mg_flags |= MGf_COPY;
307 #if MGf_DUP
308  if (vtbl->svt_dup)
309   mg->mg_flags |= MGf_DUP;
310 #endif /* MGf_DUP */
311 #if MGf_LOCAL
312  if (vtbl->svt_local)
313   mg->mg_flags |= MGf_LOCAL;
314 #endif /* MGf_LOCAL */
315
316  if (mg->mg_flags & MGf_REFCOUNTED)
317   SvREFCNT_dec(obj);
318
319  return mg;
320 }
321
322 /* --- Safe version of call_sv() ------------------------------------------- */
323
324 static I32 vmg_call_sv(pTHX_ SV *sv, I32 flags, int (*cleanup)(pTHX_ void *), void *ud) {
325 #define vmg_call_sv(S, F, C, U) vmg_call_sv(aTHX_ (S), (F), (C), (U))
326  I32 ret, cxix;
327  PERL_CONTEXT saved_cx;
328  SV *old_err = NULL;
329
330  if (SvTRUE(ERRSV)) {
331   old_err = newSVsv(ERRSV);
332   sv_setsv(ERRSV, &PL_sv_undef);
333  }
334
335  cxix     = (cxstack_ix < cxstack_max) ? (cxstack_ix + 1) : Perl_cxinc(aTHX);
336  /* The last popped context will be reused by call_sv(), but our callers may
337   * still need its previous value. Back it up so that it isn't clobbered. */
338  saved_cx = cxstack[cxix];
339
340  ret = call_sv(sv, flags | G_EVAL);
341
342  cxstack[cxix] = saved_cx;
343
344  if (SvTRUE(ERRSV)) {
345   SvREFCNT_dec(old_err);
346
347   if (IN_PERL_COMPILETIME) {
348    if (!PL_in_eval) {
349     if (PL_errors)
350      sv_catsv(PL_errors, ERRSV);
351     else
352      Perl_warn(aTHX_ "%s", SvPV_nolen(ERRSV));
353     SvCUR_set(ERRSV, 0);
354    }
355 #if VMG_HAS_PERL(5, 10, 0) || defined(PL_parser)
356    if (PL_parser)
357     ++PL_parser->error_count;
358 #elif defined(PL_error_count)
359    ++PL_error_count;
360 #else
361    ++PL_Ierror_count;
362 #endif
363   } else {
364    if (!cleanup || cleanup(aTHX_ ud))
365     croak(NULL);
366   }
367  } else {
368   if (old_err) {
369    sv_setsv(ERRSV, old_err);
370    SvREFCNT_dec(old_err);
371   }
372  }
373
374  return ret;
375 }
376
377 /* --- Stolen chunk of B --------------------------------------------------- */
378
379 typedef enum {
380  OPc_NULL,
381  OPc_BASEOP,
382  OPc_UNOP,
383  OPc_BINOP,
384  OPc_LOGOP,
385  OPc_LISTOP,
386  OPc_PMOP,
387  OPc_SVOP,
388  OPc_PADOP,
389  OPc_PVOP,
390  OPc_LOOP,
391  OPc_COP,
392 #if VMG_HAS_PERL(5, 21, 5)
393  OPc_METHOP,
394 #endif
395  OPc_MAX
396 } opclass;
397
398 static const char *const vmg_opclassnames[] = {
399  "B::NULL",
400  "B::OP",
401  "B::UNOP",
402  "B::BINOP",
403  "B::LOGOP",
404  "B::LISTOP",
405  "B::PMOP",
406  "B::SVOP",
407  "B::PADOP",
408  "B::PVOP",
409  "B::LOOP",
410  "B::COP",
411 #if VMG_HAS_PERL(5, 21, 5)
412  "B::METHOP",
413 #endif
414  NULL
415 };
416
417 static opclass vmg_opclass(const OP *o) {
418 #if 0
419  if (!o)
420   return OPc_NULL;
421 #endif
422
423  if (o->op_type == 0)
424   return (o->op_flags & OPf_KIDS) ? OPc_UNOP : OPc_BASEOP;
425
426  if (o->op_type == OP_SASSIGN)
427   return ((o->op_private & OPpASSIGN_BACKWARDS) ? OPc_UNOP : OPc_BINOP);
428
429  if (o->op_type == OP_AELEMFAST) {
430 #if PERL_VERSION <= 14
431   if (o->op_flags & OPf_SPECIAL)
432    return OPc_BASEOP;
433   else
434 #endif
435 #ifdef USE_ITHREADS
436    return OPc_PADOP;
437 #else
438    return OPc_SVOP;
439 #endif
440  }
441
442 #ifdef USE_ITHREADS
443  if (o->op_type == OP_GV || o->op_type == OP_GVSV || o->op_type == OP_RCATLINE)
444   return OPc_PADOP;
445 #endif
446
447  switch (PL_opargs[o->op_type] & OA_CLASS_MASK) {
448   case OA_BASEOP:
449    return OPc_BASEOP;
450   case OA_UNOP:
451    return OPc_UNOP;
452   case OA_BINOP:
453    return OPc_BINOP;
454   case OA_LOGOP:
455    return OPc_LOGOP;
456   case OA_LISTOP:
457    return OPc_LISTOP;
458   case OA_PMOP:
459    return OPc_PMOP;
460   case OA_SVOP:
461    return OPc_SVOP;
462   case OA_PADOP:
463    return OPc_PADOP;
464   case OA_PVOP_OR_SVOP:
465    return (o->op_private & (OPpTRANS_TO_UTF|OPpTRANS_FROM_UTF)) ? OPc_SVOP : OPc_PVOP;
466   case OA_LOOP:
467    return OPc_LOOP;
468   case OA_COP:
469    return OPc_COP;
470   case OA_BASEOP_OR_UNOP:
471    return (o->op_flags & OPf_KIDS) ? OPc_UNOP : OPc_BASEOP;
472   case OA_FILESTATOP:
473    return ((o->op_flags & OPf_KIDS) ? OPc_UNOP :
474 #ifdef USE_ITHREADS
475            (o->op_flags & OPf_REF) ? OPc_PADOP : OPc_BASEOP);
476 #else
477            (o->op_flags & OPf_REF) ? OPc_SVOP : OPc_BASEOP);
478 #endif
479   case OA_LOOPEXOP:
480    if (o->op_flags & OPf_STACKED)
481     return OPc_UNOP;
482    else if (o->op_flags & OPf_SPECIAL)
483     return OPc_BASEOP;
484    else
485     return OPc_PVOP;
486 #if VMG_HAS_PERL(5, 21, 5)
487   case OA_METHOP:
488    return OPc_METHOP;
489 #endif
490  }
491
492  return OPc_BASEOP;
493 }
494
495 /* --- Error messages ------------------------------------------------------ */
496
497 static const char vmg_invalid_wiz[] = "Invalid wizard object";
498 static const char vmg_wrongargnum[] = "Wrong number of arguments";
499
500 /* --- Context-safe global data -------------------------------------------- */
501
502 #define MY_CXT_KEY __PACKAGE__ "::_guts" XS_VERSION
503
504 typedef struct {
505  HV             *b__op_stashes[OPc_MAX];
506  I32             depth;
507  MAGIC          *freed_tokens;
508 #if VMG_PROPAGATE_ERRSV_NEEDS_TRAMPOLINE
509  vmg_trampoline  propagate_errsv;
510 #endif
511 #if VMG_RESET_RMG_NEEDS_TRAMPOLINE
512  vmg_trampoline  reset_rmg;
513 #endif
514 } my_cxt_t;
515
516 START_MY_CXT
517
518 /* --- <vmg_vtable> structure ---------------------------------------------- */
519
520 #if VMG_THREADSAFE
521
522 typedef struct {
523  MGVTBL *vtbl;
524  U32     refcount;
525 } vmg_vtable;
526
527 static vmg_vtable *vmg_vtable_alloc(pTHX) {
528 #define vmg_vtable_alloc() vmg_vtable_alloc(aTHX)
529  vmg_vtable *t;
530
531  t = VOID2(vmg_vtable *, PerlMemShared_malloc(sizeof *t));
532
533  t->vtbl     = VOID2(MGVTBL *, PerlMemShared_malloc(sizeof *t->vtbl));
534  t->refcount = 1;
535
536  return t;
537 }
538
539 #define vmg_vtable_vtbl(T) (T)->vtbl
540
541 static perl_mutex vmg_vtable_refcount_mutex;
542
543 static vmg_vtable *vmg_vtable_dup(pTHX_ vmg_vtable *t) {
544 #define vmg_vtable_dup(T) vmg_vtable_dup(aTHX_ (T))
545  VMG_LOCK(&vmg_vtable_refcount_mutex);
546  ++t->refcount;
547  VMG_UNLOCK(&vmg_vtable_refcount_mutex);
548
549  return t;
550 }
551
552 static void vmg_vtable_free(pTHX_ vmg_vtable *t) {
553 #define vmg_vtable_free(T) vmg_vtable_free(aTHX_ (T))
554  U32 refcount;
555
556  VMG_LOCK(&vmg_vtable_refcount_mutex);
557  refcount = --t->refcount;
558  VMG_UNLOCK(&vmg_vtable_refcount_mutex);
559
560  if (!refcount) {
561   PerlMemShared_free(t->vtbl);
562   PerlMemShared_free(t);
563  }
564 }
565
566 #else /* VMG_THREADSAFE */
567
568 typedef MGVTBL vmg_vtable;
569
570 static vmg_vtable *vmg_vtable_alloc(pTHX) {
571 #define vmg_vtable_alloc() vmg_vtable_alloc(aTHX)
572  vmg_vtable *t;
573
574  Newx(t, 1, vmg_vtable);
575
576  return t;
577 }
578
579 #define vmg_vtable_vtbl(T) ((MGVTBL *) (T))
580
581 #define vmg_vtable_free(T) Safefree(T)
582
583 #endif /* !VMG_THREADSAFE */
584
585 /* --- <vmg_wizard> structure ---------------------------------------------- */
586
587 typedef struct {
588  vmg_vtable *vtable;
589
590  U8 opinfo;
591  U8 uvar;
592
593  SV *cb_data;
594  SV *cb_get, *cb_set, *cb_len, *cb_clear, *cb_free;
595  SV *cb_copy;
596  SV *cb_dup;
597 #if MGf_LOCAL
598  SV *cb_local;
599 #endif /* MGf_LOCAL */
600 #if VMG_UVAR
601  SV *cb_fetch, *cb_store, *cb_exists, *cb_delete;
602 #endif /* VMG_UVAR */
603 } vmg_wizard;
604
605 static void vmg_op_info_init(pTHX_ unsigned int opinfo);
606
607 static vmg_wizard *vmg_wizard_alloc(pTHX_ UV opinfo) {
608 #define vmg_wizard_alloc(O) vmg_wizard_alloc(aTHX_ (O))
609  vmg_wizard *w;
610
611  Newx(w, 1, vmg_wizard);
612
613  w->uvar   = 0;
614  w->opinfo = (U8) ((opinfo < 255) ? opinfo : 255);
615  if (w->opinfo)
616   vmg_op_info_init(aTHX_ w->opinfo);
617
618  w->vtable = vmg_vtable_alloc();
619
620  return w;
621 }
622
623 static void vmg_wizard_free(pTHX_ vmg_wizard *w) {
624 #define vmg_wizard_free(W) vmg_wizard_free(aTHX_ (W))
625  if (!w)
626   return;
627
628  /* During global destruction, any of the callbacks may already have been
629   * freed, so we can't rely on still being able to access them. */
630  if (!PL_dirty) {
631   SvREFCNT_dec(w->cb_data);
632   SvREFCNT_dec(w->cb_get);
633   SvREFCNT_dec(w->cb_set);
634   SvREFCNT_dec(w->cb_len);
635   SvREFCNT_dec(w->cb_clear);
636   SvREFCNT_dec(w->cb_free);
637   SvREFCNT_dec(w->cb_copy);
638 #if 0
639   SvREFCNT_dec(w->cb_dup);
640 #endif
641 #if MGf_LOCAL
642   SvREFCNT_dec(w->cb_local);
643 #endif /* MGf_LOCAL */
644 #if VMG_UVAR
645   SvREFCNT_dec(w->cb_fetch);
646   SvREFCNT_dec(w->cb_store);
647   SvREFCNT_dec(w->cb_exists);
648   SvREFCNT_dec(w->cb_delete);
649 #endif /* VMG_UVAR */
650  }
651
652  /* PerlMemShared_free() and Safefree() are still fine during global
653   * destruction though. */
654  vmg_vtable_free(w->vtable);
655  Safefree(w);
656
657  return;
658 }
659
660 #if VMG_THREADSAFE
661
662 #define VMG_CLONE_CB(N) \
663  z->cb_ ## N = (w->cb_ ## N) ? SvREFCNT_inc(sv_dup(w->cb_ ## N, params)) \
664                              : NULL;
665
666 static const vmg_wizard *vmg_wizard_dup(pTHX_ const vmg_wizard *w, CLONE_PARAMS *params) {
667 #define vmg_wizard_dup(W, P) vmg_wizard_dup(aTHX_ (W), (P))
668  vmg_wizard *z;
669
670  if (!w)
671   return NULL;
672
673  Newx(z, 1, vmg_wizard);
674
675  z->vtable = vmg_vtable_dup(w->vtable);
676  z->uvar   = w->uvar;
677  z->opinfo = w->opinfo;
678
679  VMG_CLONE_CB(data);
680  VMG_CLONE_CB(get);
681  VMG_CLONE_CB(set);
682  VMG_CLONE_CB(len);
683  VMG_CLONE_CB(clear);
684  VMG_CLONE_CB(free);
685  VMG_CLONE_CB(copy);
686  VMG_CLONE_CB(dup);
687 #if MGf_LOCAL
688  VMG_CLONE_CB(local);
689 #endif /* MGf_LOCAL */
690 #if VMG_UVAR
691  VMG_CLONE_CB(fetch);
692  VMG_CLONE_CB(store);
693  VMG_CLONE_CB(exists);
694  VMG_CLONE_CB(delete);
695 #endif /* VMG_UVAR */
696
697  return z;
698 }
699
700 #endif /* VMG_THREADSAFE */
701
702 #define vmg_wizard_id(W) PTR2IV(vmg_vtable_vtbl((W)->vtable))
703
704 /* --- Wizard SV objects --------------------------------------------------- */
705
706 static int vmg_wizard_sv_free(pTHX_ SV *sv, MAGIC *mg) {
707  vmg_wizard_free((vmg_wizard *) mg->mg_ptr);
708
709  return 0;
710 }
711
712 #if VMG_THREADSAFE
713
714 static int vmg_wizard_sv_dup(pTHX_ MAGIC *mg, CLONE_PARAMS *params) {
715  mg->mg_ptr = (char *) vmg_wizard_dup((const vmg_wizard *) mg->mg_ptr, params);
716
717  return 0;
718 }
719
720 #endif /* VMG_THREADSAFE */
721
722 static MGVTBL vmg_wizard_sv_vtbl = {
723  NULL,               /* get */
724  NULL,               /* set */
725  NULL,               /* len */
726  NULL,               /* clear */
727  vmg_wizard_sv_free, /* free */
728  NULL,               /* copy */
729 #if VMG_THREADSAFE
730  vmg_wizard_sv_dup,  /* dup */
731 #else
732  NULL,               /* dup */
733 #endif
734 #if MGf_LOCAL
735  NULL,               /* local */
736 #endif /* MGf_LOCAL */
737 };
738
739 static SV *vmg_wizard_sv_new(pTHX_ const vmg_wizard *w) {
740 #define vmg_wizard_sv_new(W) vmg_wizard_sv_new(aTHX_ (W))
741  SV *wiz;
742
743 #if VMG_THREADSAFE
744  wiz = newSV(0);
745 #else
746  wiz = newSViv(PTR2IV(w));
747 #endif
748
749  vmg_sv_magicext(wiz, NULL, &vmg_wizard_sv_vtbl, w, 0);
750
751  SvREADONLY_on(wiz);
752
753  return wiz;
754 }
755
756 #if VMG_THREADSAFE
757
758 #define vmg_sv_has_wizard_type(S) (SvTYPE(S) >= SVt_PVMG)
759
760 static const vmg_wizard *vmg_wizard_from_sv_nocheck(const SV *wiz) {
761  MAGIC *mg;
762
763  for (mg = SvMAGIC(wiz); mg; mg = mg->mg_moremagic) {
764   if (mg->mg_type == PERL_MAGIC_ext && mg->mg_virtual == &vmg_wizard_sv_vtbl)
765    return (const vmg_wizard *) mg->mg_ptr;
766  }
767
768  return NULL;
769 }
770
771 #else /* VMG_THREADSAFE */
772
773 #define vmg_sv_has_wizard_type(S) SvIOK(S)
774
775 #define vmg_wizard_from_sv_nocheck(W) INT2PTR(const vmg_wizard *, SvIVX(W))
776
777 #endif /* !VMG_THREADSAFE */
778
779 #define vmg_wizard_from_sv(W) (vmg_sv_has_wizard_type(W) ? vmg_wizard_from_sv_nocheck(W) : NULL)
780
781 static const vmg_wizard *vmg_wizard_from_mg(const MAGIC *mg) {
782  if (mg->mg_type == PERL_MAGIC_ext && mg->mg_len == HEf_SVKEY) {
783   SV *sv = (SV *) mg->mg_ptr;
784
785   if (vmg_sv_has_wizard_type(sv))
786    return vmg_wizard_from_sv_nocheck(sv);
787  }
788
789  return NULL;
790 }
791
792 #define vmg_wizard_from_mg_nocheck(M) vmg_wizard_from_sv_nocheck((const SV *) (M)->mg_ptr)
793
794 /* --- User-level functions implementation --------------------------------- */
795
796 static const MAGIC *vmg_find(const SV *sv, const vmg_wizard *w) {
797  const MAGIC *mg;
798  IV wid;
799
800  if (SvTYPE(sv) < SVt_PVMG)
801   return NULL;
802
803  wid = vmg_wizard_id(w);
804
805  for (mg = SvMAGIC(sv); mg; mg = mg->mg_moremagic) {
806   const vmg_wizard *z = vmg_wizard_from_mg(mg);
807
808   if (z && vmg_wizard_id(z) == wid)
809    return mg;
810  }
811
812  return NULL;
813 }
814
815 /* ... Construct private data .............................................. */
816
817 static SV *vmg_data_new(pTHX_ SV *ctor, SV *sv, SV **args, I32 items) {
818 #define vmg_data_new(C, S, A, I) vmg_data_new(aTHX_ (C), (S), (A), (I))
819  I32 i;
820  SV *nsv;
821
822  dSP;
823
824  ENTER;
825  SAVETMPS;
826
827  PUSHMARK(SP);
828  EXTEND(SP, items + 1);
829  PUSHs(sv_2mortal(newRV_inc(sv)));
830  for (i = 0; i < items; ++i)
831   PUSHs(args[i]);
832  PUTBACK;
833
834  vmg_call_sv(ctor, G_SCALAR, 0, NULL);
835
836  SPAGAIN;
837  nsv = POPs;
838 #if VMG_HAS_PERL(5, 8, 3)
839  SvREFCNT_inc_simple_void(nsv); /* Or it will be destroyed in FREETMPS */
840 #else
841  nsv = sv_newref(nsv);          /* Workaround some bug in SvREFCNT_inc() */
842 #endif
843  PUTBACK;
844
845  FREETMPS;
846  LEAVE;
847
848  return nsv;
849 }
850
851 static SV *vmg_data_get(pTHX_ SV *sv, const vmg_wizard *w) {
852 #define vmg_data_get(S, W) vmg_data_get(aTHX_ (S), (W))
853  const MAGIC *mg = vmg_find(sv, w);
854
855  return mg ? mg->mg_obj : NULL;
856 }
857
858 /* ... Magic cast/dispell .................................................. */
859
860 #if VMG_UVAR
861
862 static I32 vmg_svt_val(pTHX_ IV, SV *);
863
864 typedef struct {
865  struct ufuncs new_uf;
866  struct ufuncs old_uf;
867 } vmg_uvar_ud;
868
869 #endif /* VMG_UVAR */
870
871 static void vmg_mg_del(pTHX_ SV *sv, MAGIC *prevmagic, MAGIC *mg, MAGIC *moremagic) {
872 #define vmg_mg_del(S, P, M, N) vmg_mg_del(aTHX_ (S), (P), (M), (N))
873  dMY_CXT;
874
875  if (prevmagic)
876   prevmagic->mg_moremagic = moremagic;
877  else
878   SvMAGIC_set(sv, moremagic);
879
880  /* Destroy private data */
881 #if VMG_UVAR
882  if (mg->mg_type == PERL_MAGIC_uvar) {
883   Safefree(mg->mg_ptr);
884  } else {
885 #endif /* VMG_UVAR */
886   if (mg->mg_obj != sv) {
887    SvREFCNT_dec(mg->mg_obj);
888    mg->mg_obj = NULL;
889   }
890   /* Unreference the wizard */
891   SvREFCNT_dec((SV *) mg->mg_ptr);
892   mg->mg_ptr = NULL;
893 #if VMG_UVAR
894  }
895 #endif /* VMG_UVAR */
896
897  if (MY_CXT.depth) {
898   mg->mg_moremagic    = MY_CXT.freed_tokens;
899   MY_CXT.freed_tokens = mg;
900  } else {
901   mg->mg_moremagic = NULL;
902   Safefree(mg);
903  }
904 }
905
906 static int vmg_magic_chain_free(pTHX_ MAGIC *mg, MAGIC *skip) {
907 #define vmg_magic_chain_free(M, S) vmg_magic_chain_free(aTHX_ (M), (S))
908  int skipped = 0;
909
910  while (mg) {
911   MAGIC *moremagic = mg->mg_moremagic;
912
913   if (mg == skip)
914    ++skipped;
915   else
916    Safefree(mg);
917
918   mg = moremagic;
919  }
920
921  return skipped;
922 }
923
924 static UV vmg_cast(pTHX_ SV *sv, const vmg_wizard *w, const SV *wiz, SV **args, I32 items) {
925 #define vmg_cast(S, W, WIZ, A, I) vmg_cast(aTHX_ (S), (W), (WIZ), (A), (I))
926  MAGIC  *mg;
927  MGVTBL *t;
928  SV     *data;
929  U32     oldgmg;
930
931  if (vmg_find(sv, w))
932   return 1;
933
934  oldgmg = SvGMAGICAL(sv);
935
936  data = (w->cb_data) ? vmg_data_new(w->cb_data, sv, args, items) : NULL;
937
938  t  = vmg_vtable_vtbl(w->vtable);
939  mg = vmg_sv_magicext(sv, data, t, wiz, HEf_SVKEY);
940
941  if (SvTYPE(sv) < SVt_PVHV)
942   goto done;
943
944  /* The GMAGICAL flag only says that a hash is tied or has uvar magic - get
945   * magic is actually never called for them. If the GMAGICAL flag was off before
946   * calling sv_magicext(), the hash isn't tied and has no uvar magic. If it's
947   * now on, then this wizard has get magic. Hence we can work around the
948   * get/clear shortcoming by turning the GMAGICAL flag off. If the current magic
949   * has uvar callbacks, it will be turned back on later. */
950  if (!oldgmg && SvGMAGICAL(sv))
951   SvGMAGICAL_off(sv);
952
953 #if VMG_UVAR
954  if (w->uvar) {
955   MAGIC *prevmagic, *moremagic = NULL;
956   vmg_uvar_ud ud;
957
958   ud.new_uf.uf_val   = vmg_svt_val;
959   ud.new_uf.uf_set   = NULL;
960   ud.new_uf.uf_index = 0;
961   ud.old_uf.uf_val   = NULL;
962   ud.old_uf.uf_set   = NULL;
963   ud.old_uf.uf_index = 0;
964
965   /* One uvar magic in the chain is enough. */
966   for (prevmagic = NULL, mg = SvMAGIC(sv); mg; prevmagic = mg, mg = moremagic) {
967    moremagic = mg->mg_moremagic;
968    if (mg->mg_type == PERL_MAGIC_uvar)
969     break;
970   }
971
972   if (mg) { /* Found another uvar magic. */
973    struct ufuncs *uf = (struct ufuncs *) mg->mg_ptr;
974    if (uf->uf_val == vmg_svt_val) {
975     /* It's our uvar magic, nothing to do. oldgmg was true. */
976     goto done;
977    } else {
978     /* It's another uvar magic, backup it and replace it by ours. */
979     ud.old_uf = *uf;
980     vmg_mg_del(sv, prevmagic, mg, moremagic);
981    }
982   }
983
984   sv_magic(sv, NULL, PERL_MAGIC_uvar, (const char *) &ud, sizeof(ud));
985   vmg_mg_magical(sv);
986   /* Our hash now carries uvar magic. The uvar/clear shortcoming has to be
987    * handled by our uvar callback. */
988  }
989 #endif /* VMG_UVAR */
990
991 done:
992  return 1;
993 }
994
995 static UV vmg_dispell(pTHX_ SV *sv, const vmg_wizard *w) {
996 #define vmg_dispell(S, W) vmg_dispell(aTHX_ (S), (W))
997 #if VMG_UVAR
998  U32 uvars = 0;
999 #endif /* VMG_UVAR */
1000  MAGIC *mg, *prevmagic, *moremagic = NULL;
1001  IV wid = vmg_wizard_id(w);
1002
1003  if (SvTYPE(sv) < SVt_PVMG)
1004   return 0;
1005
1006  for (prevmagic = NULL, mg = SvMAGIC(sv); mg; prevmagic = mg, mg = moremagic) {
1007   const vmg_wizard *z;
1008
1009   moremagic = mg->mg_moremagic;
1010
1011   z = vmg_wizard_from_mg(mg);
1012   if (z) {
1013    IV zid = vmg_wizard_id(z);
1014
1015 #if VMG_UVAR
1016    if (zid == wid) {
1017     /* If the current has no uvar, short-circuit uvar deletion. */
1018     uvars = z->uvar ? (uvars + 1) : 0;
1019     break;
1020    } else if (z->uvar) {
1021     ++uvars;
1022     /* We can't break here since we need to find the ext magic to delete. */
1023    }
1024 #else /* VMG_UVAR */
1025    if (zid == wid)
1026     break;
1027 #endif /* !VMG_UVAR */
1028   }
1029  }
1030  if (!mg)
1031   return 0;
1032
1033  vmg_mg_del(sv, prevmagic, mg, moremagic);
1034
1035 #if VMG_UVAR
1036  if (uvars == 1 && SvTYPE(sv) >= SVt_PVHV) {
1037   /* mg was the first ext magic in the chain that had uvar */
1038
1039   for (mg = moremagic; mg; mg = mg->mg_moremagic) {
1040    const vmg_wizard *z = vmg_wizard_from_mg(mg);
1041
1042    if (z && z->uvar) {
1043     ++uvars;
1044     break;
1045    }
1046   }
1047
1048   if (uvars == 1) {
1049    vmg_uvar_ud *ud;
1050
1051    for (prevmagic = NULL, mg = SvMAGIC(sv); mg; prevmagic = mg, mg = moremagic){
1052     moremagic = mg->mg_moremagic;
1053     if (mg->mg_type == PERL_MAGIC_uvar)
1054      break;
1055    }
1056
1057    ud = (vmg_uvar_ud *) mg->mg_ptr;
1058    if (ud->old_uf.uf_val || ud->old_uf.uf_set) {
1059     /* Revert the original uvar magic. */
1060     struct ufuncs *uf;
1061     Newx(uf, 1, struct ufuncs);
1062     *uf = ud->old_uf;
1063     Safefree(ud);
1064     mg->mg_ptr = (char *) uf;
1065     mg->mg_len = sizeof(*uf);
1066    } else {
1067     /* Remove the uvar magic. */
1068     vmg_mg_del(sv, prevmagic, mg, moremagic);
1069    }
1070   }
1071  }
1072 #endif /* VMG_UVAR */
1073
1074  vmg_mg_magical(sv);
1075
1076  return 1;
1077 }
1078
1079 /* ... OP info ............................................................. */
1080
1081 #define VMG_OP_INFO_NAME   1
1082 #define VMG_OP_INFO_OBJECT 2
1083
1084 #if VMG_THREADSAFE
1085 static perl_mutex vmg_op_name_init_mutex;
1086 #endif
1087
1088 static U32           vmg_op_name_init      = 0;
1089 static unsigned char vmg_op_name_len[MAXO] = { 0 };
1090
1091 static void vmg_op_info_init(pTHX_ unsigned int opinfo) {
1092 #define vmg_op_info_init(W) vmg_op_info_init(aTHX_ (W))
1093  switch (opinfo) {
1094   case VMG_OP_INFO_NAME:
1095    VMG_LOCK(&vmg_op_name_init_mutex);
1096    if (!vmg_op_name_init) {
1097     OPCODE t;
1098     for (t = 0; t < OP_max; ++t)
1099      vmg_op_name_len[t] = strlen(PL_op_name[t]);
1100     vmg_op_name_init = 1;
1101    }
1102    VMG_UNLOCK(&vmg_op_name_init_mutex);
1103    break;
1104   case VMG_OP_INFO_OBJECT: {
1105    dMY_CXT;
1106    if (!MY_CXT.b__op_stashes[0]) {
1107     int c;
1108     require_pv("B.pm");
1109     for (c = OPc_NULL; c < OPc_MAX; ++c)
1110      MY_CXT.b__op_stashes[c] = gv_stashpv(vmg_opclassnames[c], 1);
1111    }
1112    break;
1113   }
1114   default:
1115    break;
1116  }
1117 }
1118
1119 static SV *vmg_op_info(pTHX_ unsigned int opinfo) {
1120 #define vmg_op_info(W) vmg_op_info(aTHX_ (W))
1121  if (!PL_op)
1122   return &PL_sv_undef;
1123
1124  switch (opinfo) {
1125   case VMG_OP_INFO_NAME: {
1126    OPCODE t = PL_op->op_type;
1127    return sv_2mortal(newSVpvn(PL_op_name[t], vmg_op_name_len[t]));
1128   }
1129   case VMG_OP_INFO_OBJECT: {
1130    dMY_CXT;
1131    return sv_bless(sv_2mortal(newRV_noinc(newSViv(PTR2IV(PL_op)))),
1132                    MY_CXT.b__op_stashes[vmg_opclass(PL_op)]);
1133   }
1134   default:
1135    break;
1136  }
1137
1138  return &PL_sv_undef;
1139 }
1140
1141 /* --- svt callbacks ------------------------------------------------------- */
1142
1143 #define VMG_CB_CALL_ARGS_MASK  15
1144 #define VMG_CB_CALL_ARGS_SHIFT 4
1145 #define VMG_CB_CALL_OPINFO     (VMG_OP_INFO_NAME|VMG_OP_INFO_OBJECT) /* 1|2 */
1146 #define VMG_CB_CALL_GUARD      4
1147
1148 static int vmg_dispell_guard_oncroak(pTHX_ void *ud) {
1149  dMY_CXT;
1150
1151  MY_CXT.depth--;
1152
1153  /* If we're at the upmost magic call and we're about to die, we can just free
1154   * the tokens right now, since we will jump past the problematic part of our
1155   * caller. */
1156  if (MY_CXT.depth == 0 && MY_CXT.freed_tokens) {
1157   vmg_magic_chain_free(MY_CXT.freed_tokens, NULL);
1158   MY_CXT.freed_tokens = NULL;
1159  }
1160
1161  return 1;
1162 }
1163
1164 static int vmg_dispell_guard_free(pTHX_ SV *sv, MAGIC *mg) {
1165  vmg_magic_chain_free((MAGIC *) mg->mg_ptr, NULL);
1166
1167  return 0;
1168 }
1169
1170 #if VMG_THREADSAFE
1171
1172 static int vmg_dispell_guard_dup(pTHX_ MAGIC *mg, CLONE_PARAMS *params) {
1173  /* The freed magic tokens aren't cloned by perl because it cannot reach them
1174   * (they have been detached from their parent SV when they were enqueued).
1175   * Hence there's nothing to purge in the new thread. */
1176  mg->mg_ptr = NULL;
1177
1178  return 0;
1179 }
1180
1181 #endif /* VMG_THREADSAFE */
1182
1183 static MGVTBL vmg_dispell_guard_vtbl = {
1184  NULL,                   /* get */
1185  NULL,                   /* set */
1186  NULL,                   /* len */
1187  NULL,                   /* clear */
1188  vmg_dispell_guard_free, /* free */
1189  NULL,                   /* copy */
1190 #if VMG_THREADSAFE
1191  vmg_dispell_guard_dup,  /* dup */
1192 #else
1193  NULL,                   /* dup */
1194 #endif
1195 #if MGf_LOCAL
1196  NULL,                   /* local */
1197 #endif /* MGf_LOCAL */
1198 };
1199
1200 static SV *vmg_dispell_guard_new(pTHX_ MAGIC *root) {
1201 #define vmg_dispell_guard_new(R) vmg_dispell_guard_new(aTHX_ (R))
1202  SV *guard;
1203
1204  guard = sv_newmortal();
1205  vmg_sv_magicext(guard, NULL, &vmg_dispell_guard_vtbl, root, 0);
1206
1207  return guard;
1208 }
1209
1210 static int vmg_cb_call(pTHX_ SV *cb, unsigned int flags, SV *sv, ...) {
1211  va_list ap;
1212  int ret = 0;
1213  unsigned int i, args, opinfo;
1214  MAGIC **chain = NULL;
1215  SV *svr;
1216
1217  dSP;
1218
1219  args    = flags & VMG_CB_CALL_ARGS_MASK;
1220  flags >>= VMG_CB_CALL_ARGS_SHIFT;
1221  opinfo  = flags & VMG_CB_CALL_OPINFO;
1222
1223  ENTER;
1224  SAVETMPS;
1225
1226  PUSHMARK(SP);
1227  EXTEND(SP, args + 1);
1228  PUSHs(sv_2mortal(newRV_inc(sv)));
1229  va_start(ap, sv);
1230  for (i = 0; i < args; ++i) {
1231   SV *sva = va_arg(ap, SV *);
1232   PUSHs(sva ? sva : &PL_sv_undef);
1233  }
1234  va_end(ap);
1235  if (opinfo)
1236   XPUSHs(vmg_op_info(opinfo));
1237  PUTBACK;
1238
1239  if (flags & VMG_CB_CALL_GUARD) {
1240   dMY_CXT;
1241   MY_CXT.depth++;
1242   vmg_call_sv(cb, G_SCALAR, vmg_dispell_guard_oncroak, NULL);
1243   MY_CXT.depth--;
1244   if (MY_CXT.depth == 0 && MY_CXT.freed_tokens)
1245    chain = &MY_CXT.freed_tokens;
1246  } else {
1247   vmg_call_sv(cb, G_SCALAR, 0, NULL);
1248  }
1249
1250  SPAGAIN;
1251  svr = POPs;
1252  if (SvOK(svr))
1253   ret = (int) SvIV(svr);
1254  if (SvROK(svr))
1255   SvREFCNT_inc(svr);
1256  else
1257   svr = NULL;
1258  PUTBACK;
1259
1260  FREETMPS;
1261  LEAVE;
1262
1263  if (svr && !SvTEMP(svr))
1264   sv_2mortal(svr);
1265
1266  if (chain) {
1267   vmg_dispell_guard_new(*chain);
1268   *chain = NULL;
1269  }
1270
1271  return ret;
1272 }
1273
1274 #define VMG_CB_FLAGS(OI, A) \
1275         ((((unsigned int) (OI)) << VMG_CB_CALL_ARGS_SHIFT) | (A))
1276
1277 #define vmg_cb_call1(I, OI, S, A1) \
1278         vmg_cb_call(aTHX_ (I), VMG_CB_FLAGS((OI), 1), (S), (A1))
1279 #define vmg_cb_call2(I, OI, S, A1, A2) \
1280         vmg_cb_call(aTHX_ (I), VMG_CB_FLAGS((OI), 2), (S), (A1), (A2))
1281 #define vmg_cb_call3(I, OI, S, A1, A2, A3) \
1282         vmg_cb_call(aTHX_ (I), VMG_CB_FLAGS((OI), 3), (S), (A1), (A2), (A3))
1283
1284 /* ... Default no-op magic callback ........................................ */
1285
1286 static int vmg_svt_default_noop(pTHX_ SV *sv, MAGIC *mg) {
1287  return 0;
1288 }
1289
1290 /* ... get magic ........................................................... */
1291
1292 static int vmg_svt_get(pTHX_ SV *sv, MAGIC *mg) {
1293  const vmg_wizard *w = vmg_wizard_from_mg_nocheck(mg);
1294
1295  return vmg_cb_call1(w->cb_get, w->opinfo, sv, mg->mg_obj);
1296 }
1297
1298 #define vmg_svt_get_noop vmg_svt_default_noop
1299
1300 /* ... set magic ........................................................... */
1301
1302 static int vmg_svt_set(pTHX_ SV *sv, MAGIC *mg) {
1303  const vmg_wizard *w = vmg_wizard_from_mg_nocheck(mg);
1304
1305  return vmg_cb_call1(w->cb_set, w->opinfo, sv, mg->mg_obj);
1306 }
1307
1308 #define vmg_svt_set_noop vmg_svt_default_noop
1309
1310 /* ... len magic ........................................................... */
1311
1312 static U32 vmg_sv_len(pTHX_ SV *sv) {
1313 #define vmg_sv_len(S) vmg_sv_len(aTHX_ (S))
1314  STRLEN len;
1315 #if VMG_HAS_PERL(5, 9, 3)
1316  const U8 *s = VOID2(const U8 *, VOID2(const void *, SvPV_const(sv, len)));
1317 #else
1318  U8 *s = SvPV(sv, len);
1319 #endif
1320
1321  return DO_UTF8(sv) ? utf8_length(s, s + len) : len;
1322 }
1323
1324 static U32 vmg_svt_len(pTHX_ SV *sv, MAGIC *mg) {
1325  const vmg_wizard *w = vmg_wizard_from_mg_nocheck(mg);
1326  unsigned int opinfo = w->opinfo;
1327  U32 len, ret;
1328  SV *svr;
1329  svtype t = SvTYPE(sv);
1330
1331  dSP;
1332
1333  ENTER;
1334  SAVETMPS;
1335
1336  PUSHMARK(SP);
1337  EXTEND(SP, 3);
1338  PUSHs(sv_2mortal(newRV_inc(sv)));
1339  PUSHs(mg->mg_obj ? mg->mg_obj : &PL_sv_undef);
1340  if (t < SVt_PVAV) {
1341   len = vmg_sv_len(sv);
1342   mPUSHu(len);
1343  } else if (t == SVt_PVAV) {
1344   len = av_len((AV *) sv) + 1;
1345   mPUSHu(len);
1346  } else {
1347   len = 0;
1348   PUSHs(&PL_sv_undef);
1349  }
1350  if (opinfo)
1351   XPUSHs(vmg_op_info(opinfo));
1352  PUTBACK;
1353
1354  vmg_call_sv(w->cb_len, G_SCALAR, 0, NULL);
1355
1356  SPAGAIN;
1357  svr = POPs;
1358  ret = SvOK(svr) ? (U32) SvUV(svr) : len;
1359  if (t == SVt_PVAV)
1360   --ret;
1361  PUTBACK;
1362
1363  FREETMPS;
1364  LEAVE;
1365
1366  return ret;
1367 }
1368
1369 static U32 vmg_svt_len_noop(pTHX_ SV *sv, MAGIC *mg) {
1370  U32    len = 0;
1371  svtype t   = SvTYPE(sv);
1372
1373  if (t < SVt_PVAV) {
1374   len = vmg_sv_len(sv);
1375  } else if (t == SVt_PVAV) {
1376   len = (U32) av_len((AV *) sv);
1377  }
1378
1379  return len;
1380 }
1381
1382 /* ... clear magic ......................................................... */
1383
1384 static int vmg_svt_clear(pTHX_ SV *sv, MAGIC *mg) {
1385  const vmg_wizard *w = vmg_wizard_from_mg_nocheck(mg);
1386  unsigned int flags  = w->opinfo;
1387
1388 #if !VMG_HAS_PERL(5, 12, 0)
1389  flags |= VMG_CB_CALL_GUARD;
1390 #endif
1391
1392  return vmg_cb_call1(w->cb_clear, flags, sv, mg->mg_obj);
1393 }
1394
1395 #define vmg_svt_clear_noop vmg_svt_default_noop
1396
1397 /* ... free magic .......................................................... */
1398
1399 #if VMG_PROPAGATE_ERRSV_NEEDS_TRAMPOLINE
1400
1401 static OP *vmg_pp_propagate_errsv(pTHX) {
1402  SVOP *o = cSVOPx(PL_op);
1403
1404  if (o->op_sv) {
1405   sv_setsv(ERRSV, o->op_sv);
1406   SvREFCNT_dec(o->op_sv);
1407   o->op_sv = NULL;
1408  }
1409
1410  return NORMAL;
1411 }
1412
1413 #endif /* VMG_PROPAGATE_ERRSV_NEEDS_TRAMPOLINE */
1414
1415 static int vmg_propagate_errsv_free(pTHX_ SV *sv, MAGIC *mg) {
1416  if (mg->mg_obj)
1417   sv_setsv(ERRSV, mg->mg_obj);
1418
1419  return 0;
1420 }
1421
1422 /* perl is already kind enough to handle the cloning of the mg_obj member,
1423    hence we don't need to define a dup magic callback. */
1424
1425 static MGVTBL vmg_propagate_errsv_vtbl = {
1426  0,                        /* get */
1427  0,                        /* set */
1428  0,                        /* len */
1429  0,                        /* clear */
1430  vmg_propagate_errsv_free, /* free */
1431  0,                        /* copy */
1432  0,                        /* dup */
1433 #if MGf_LOCAL
1434  0,                        /* local */
1435 #endif /* MGf_LOCAL */
1436 };
1437
1438 typedef struct {
1439  SV  *sv;
1440  int  in_eval;
1441  I32  base;
1442 } vmg_svt_free_cleanup_ud;
1443
1444 static int vmg_svt_free_cleanup(pTHX_ void *ud_) {
1445  vmg_svt_free_cleanup_ud *ud = VOID2(vmg_svt_free_cleanup_ud *, ud_);
1446
1447  if (ud->in_eval) {
1448   U32 optype = PL_op ? PL_op->op_type : OP_NULL;
1449
1450   if (optype == OP_LEAVETRY || optype == OP_LEAVEEVAL) {
1451    SV *errsv = newSVsv(ERRSV);
1452
1453    FREETMPS;
1454    LEAVE_SCOPE(ud->base);
1455
1456 #if VMG_PROPAGATE_ERRSV_NEEDS_TRAMPOLINE
1457    if (optype == OP_LEAVETRY) {
1458     dMY_CXT;
1459     PL_op = vmg_trampoline_bump(&MY_CXT.propagate_errsv, errsv, PL_op);
1460    } else if (optype == OP_LEAVEEVAL) {
1461     SV *guard = sv_newmortal();
1462     vmg_sv_magicext(guard, errsv, &vmg_propagate_errsv_vtbl, NULL, 0);
1463    }
1464 #else /* !VMG_PROPAGATE_ERRSV_NEEDS_TRAMPOLINE */
1465 # if !VMG_HAS_PERL(5, 8, 9)
1466    {
1467     SV *guard = sv_newmortal();
1468     vmg_sv_magicext(guard, errsv, &vmg_propagate_errsv_vtbl, NULL, 0);
1469    }
1470 # else
1471    vmg_sv_magicext(ERRSV, errsv, &vmg_propagate_errsv_vtbl, NULL, 0);
1472 # endif
1473 #endif /* VMG_PROPAGATE_ERRSV_NEEDS_TRAMPOLINE */
1474
1475    SAVETMPS;
1476   }
1477
1478   /* Don't propagate */
1479   return 0;
1480  } else {
1481   SV    *sv = ud->sv;
1482   MAGIC *mg;
1483
1484   /* We are about to croak() while sv is being destroyed. Try to clean up
1485    * things a bit. */
1486   mg = SvMAGIC(sv);
1487   if (mg) {
1488    vmg_mg_del(sv, NULL, mg, mg->mg_moremagic);
1489    mg_magical(sv);
1490   }
1491   SvREFCNT_dec(sv);
1492
1493   vmg_dispell_guard_oncroak(aTHX_ NULL);
1494
1495   /* After that, propagate the error upwards. */
1496   return 1;
1497  }
1498 }
1499
1500 static int vmg_svt_free(pTHX_ SV *sv, MAGIC *mg) {
1501  vmg_svt_free_cleanup_ud ud;
1502  const vmg_wizard *w;
1503  int ret = 0;
1504  SV *svr;
1505
1506  dSP;
1507
1508  /* During global destruction, we cannot be sure that the wizard and its free
1509   * callback are still alive. */
1510  if (PL_dirty)
1511   return 0;
1512
1513  w = vmg_wizard_from_mg_nocheck(mg);
1514
1515  /* So that it survives the temp cleanup below */
1516  SvREFCNT_inc_simple_void(sv);
1517
1518 #if !(VMG_HAS_PERL_MAINT(5, 11, 0, 32686) || VMG_HAS_PERL(5, 12, 0))
1519  /* The previous magic tokens were freed but the magic chain wasn't updated, so
1520   * if you access the sv from the callback the old deleted magics will trigger
1521   * and cause memory misreads. Change 32686 solved it that way : */
1522  SvMAGIC_set(sv, mg);
1523 #endif
1524
1525  ud.sv = sv;
1526  if (cxstack_ix < cxstack_max) {
1527   ud.in_eval = (CxTYPE(cxstack + cxstack_ix + 1) == CXt_EVAL);
1528   ud.base    = ud.in_eval ? PL_scopestack[PL_scopestack_ix] : 0;
1529  } else {
1530   ud.in_eval = 0;
1531   ud.base    = 0;
1532  }
1533
1534  ENTER;
1535  SAVETMPS;
1536
1537  PUSHMARK(SP);
1538  EXTEND(SP, 2);
1539  PUSHs(sv_2mortal(newRV_inc(sv)));
1540  PUSHs(mg->mg_obj ? mg->mg_obj : &PL_sv_undef);
1541  if (w->opinfo)
1542   XPUSHs(vmg_op_info(w->opinfo));
1543  PUTBACK;
1544
1545  {
1546   dMY_CXT;
1547   MY_CXT.depth++;
1548   vmg_call_sv(w->cb_free, G_SCALAR, vmg_svt_free_cleanup, &ud);
1549   MY_CXT.depth--;
1550   if (MY_CXT.depth == 0 && MY_CXT.freed_tokens) {
1551    /* Free all the tokens in the chain but the current one (if it's present).
1552     * It will be taken care of by our caller, Perl_mg_free(). */
1553    vmg_magic_chain_free(MY_CXT.freed_tokens, mg);
1554    MY_CXT.freed_tokens = NULL;
1555   }
1556  }
1557
1558  SPAGAIN;
1559  svr = POPs;
1560  if (SvOK(svr))
1561   ret = (int) SvIV(svr);
1562  PUTBACK;
1563
1564  FREETMPS;
1565  LEAVE;
1566
1567  /* Calling SvREFCNT_dec() will trigger destructors in an infinite loop, so
1568   * we have to rely on SvREFCNT() being a lvalue. Heck, even the core does it */
1569  --SvREFCNT(sv);
1570
1571  /* Perl_mg_free will get rid of the magic and decrement mg->mg_obj and
1572   * mg->mg_ptr reference count */
1573  return ret;
1574 }
1575
1576 #define vmg_svt_free_noop vmg_svt_default_noop
1577
1578 #if VMG_HAS_PERL_MAINT(5, 11, 0, 33256) || VMG_HAS_PERL(5, 12, 0)
1579 # define VMG_SVT_COPY_KEYLEN_TYPE I32
1580 #else
1581 # define VMG_SVT_COPY_KEYLEN_TYPE int
1582 #endif
1583
1584 /* ... copy magic .......................................................... */
1585
1586 static int vmg_svt_copy(pTHX_ SV *sv, MAGIC *mg, SV *nsv, const char *key, VMG_SVT_COPY_KEYLEN_TYPE keylen) {
1587  const vmg_wizard *w = vmg_wizard_from_mg_nocheck(mg);
1588  SV *keysv;
1589  int ret;
1590
1591  if (keylen == HEf_SVKEY) {
1592   keysv = (SV *) key;
1593  } else {
1594   keysv = newSVpvn(key, keylen);
1595  }
1596
1597  if (SvTYPE(sv) >= SVt_PVCV)
1598   nsv = sv_2mortal(newRV_inc(nsv));
1599
1600  ret = vmg_cb_call3(w->cb_copy, w->opinfo, sv, mg->mg_obj, keysv, nsv);
1601
1602  if (keylen != HEf_SVKEY) {
1603   SvREFCNT_dec(keysv);
1604  }
1605
1606  return ret;
1607 }
1608
1609 static int vmg_svt_copy_noop(pTHX_ SV *sv, MAGIC *mg, SV *nsv, const char *key, VMG_SVT_COPY_KEYLEN_TYPE keylen) {
1610  return 0;
1611 }
1612
1613 /* ... dup magic ........................................................... */
1614
1615 #if 0
1616 static int vmg_svt_dup(pTHX_ MAGIC *mg, CLONE_PARAMS *param) {
1617  return 0;
1618 }
1619 #define vmg_svt_dup_noop vmg_svt_dup
1620 #endif
1621
1622 /* ... local magic ......................................................... */
1623
1624 #if MGf_LOCAL
1625
1626 static int vmg_svt_local(pTHX_ SV *nsv, MAGIC *mg) {
1627  const vmg_wizard *w = vmg_wizard_from_mg_nocheck(mg);
1628
1629  return vmg_cb_call1(w->cb_local, w->opinfo, nsv, mg->mg_obj);
1630 }
1631
1632 #define vmg_svt_local_noop vmg_svt_default_noop
1633
1634 #endif /* MGf_LOCAL */
1635
1636 /* ... uvar magic .......................................................... */
1637
1638 #if VMG_UVAR
1639
1640 static OP *vmg_pp_reset_rmg(pTHX) {
1641  SVOP *o = cSVOPx(PL_op);
1642
1643  SvRMAGICAL_on(o->op_sv);
1644  o->op_sv = NULL;
1645
1646  return NORMAL;
1647 }
1648
1649 static I32 vmg_svt_val(pTHX_ IV action, SV *sv) {
1650  vmg_uvar_ud *ud;
1651  MAGIC *mg, *umg, *moremagic;
1652  SV *key = NULL, *newkey = NULL;
1653  int tied = 0;
1654
1655  umg = mg_find(sv, PERL_MAGIC_uvar);
1656  /* umg can't be NULL or we wouldn't be there. */
1657  key = umg->mg_obj;
1658  ud  = (vmg_uvar_ud *) umg->mg_ptr;
1659
1660  if (ud->old_uf.uf_val)
1661   ud->old_uf.uf_val(aTHX_ action, sv);
1662  if (ud->old_uf.uf_set)
1663   ud->old_uf.uf_set(aTHX_ action, sv);
1664
1665  for (mg = SvMAGIC(sv); mg; mg = moremagic) {
1666   const vmg_wizard *w;
1667
1668   /* mg may be freed later by the uvar call, so we need to fetch the next
1669    * token before reaching that fateful point. */
1670   moremagic = mg->mg_moremagic;
1671
1672   switch (mg->mg_type) {
1673    case PERL_MAGIC_ext:
1674     break;
1675    case PERL_MAGIC_tied:
1676     ++tied;
1677     continue;
1678    default:
1679     continue;
1680   }
1681
1682   w = vmg_wizard_from_mg(mg);
1683   if (!w)
1684    continue;
1685
1686   switch (w->uvar) {
1687    case 0:
1688     continue;
1689    case 2:
1690     if (!newkey)
1691      newkey = key = umg->mg_obj = sv_mortalcopy(umg->mg_obj);
1692   }
1693
1694   switch (action
1695              & (HV_FETCH_ISSTORE|HV_FETCH_ISEXISTS|HV_FETCH_LVALUE|HV_DELETE)) {
1696    case 0:
1697     if (w->cb_fetch)
1698      vmg_cb_call2(w->cb_fetch, w->opinfo | VMG_CB_CALL_GUARD, sv,
1699                                mg->mg_obj, key);
1700     break;
1701    case HV_FETCH_ISSTORE:
1702    case HV_FETCH_LVALUE:
1703    case (HV_FETCH_ISSTORE|HV_FETCH_LVALUE):
1704     if (w->cb_store)
1705      vmg_cb_call2(w->cb_store, w->opinfo | VMG_CB_CALL_GUARD, sv,
1706                                mg->mg_obj, key);
1707     break;
1708    case HV_FETCH_ISEXISTS:
1709     if (w->cb_exists)
1710      vmg_cb_call2(w->cb_exists, w->opinfo | VMG_CB_CALL_GUARD, sv,
1711                                 mg->mg_obj, key);
1712     break;
1713    case HV_DELETE:
1714     if (w->cb_delete)
1715      vmg_cb_call2(w->cb_delete, w->opinfo | VMG_CB_CALL_GUARD, sv,
1716                                 mg->mg_obj, key);
1717     break;
1718   }
1719  }
1720
1721  if (SvRMAGICAL(sv) && !tied && !(action & (HV_FETCH_ISSTORE|HV_DELETE))) {
1722   /* Temporarily hide the RMAGICAL flag of the hash so it isn't wrongly
1723    * mistaken for a tied hash by the rest of hv_common. It will be reset by
1724    * the op_ppaddr of a new fake op injected between the current and the next
1725    * one. */
1726
1727 #if VMG_RESET_RMG_NEEDS_TRAMPOLINE
1728
1729   dMY_CXT;
1730
1731   PL_op = vmg_trampoline_bump(&MY_CXT.reset_rmg, sv, PL_op);
1732
1733 #else /* !VMG_RESET_RMG_NEEDS_TRAMPOLINE */
1734
1735   OP   *nop  = PL_op->op_next;
1736   SVOP *svop = NULL;
1737
1738   if (nop && nop->op_ppaddr == vmg_pp_reset_rmg) {
1739    svop = (SVOP *) nop;
1740   } else {
1741    NewOp(1101, svop, 1, SVOP);
1742    svop->op_type    = OP_STUB;
1743    svop->op_ppaddr  = vmg_pp_reset_rmg;
1744    svop->op_next    = nop;
1745    svop->op_flags   = 0;
1746    svop->op_private = 0;
1747
1748    PL_op->op_next = (OP *) svop;
1749   }
1750
1751   svop->op_sv = sv;
1752
1753 #endif /* VMG_RESET_RMG_NEEDS_TRAMPOLINE */
1754
1755   SvRMAGICAL_off(sv);
1756  }
1757
1758  return 0;
1759 }
1760
1761 #endif /* VMG_UVAR */
1762
1763 /* --- Module setup/teardown ----------------------------------------------- */
1764
1765 #if VMG_THREADSAFE
1766
1767 static I32 vmg_loaded = 0;
1768
1769 /* We must use preexistent global mutexes or we will never be able to destroy
1770  * them. */
1771 # if VMG_HAS_PERL(5, 9, 3)
1772 #  define VMG_LOADED_LOCK   MUTEX_LOCK(&PL_my_ctx_mutex)
1773 #  define VMG_LOADED_UNLOCK MUTEX_UNLOCK(&PL_my_ctx_mutex)
1774 # else
1775 #  define VMG_LOADED_LOCK   OP_REFCNT_LOCK
1776 #  define VMG_LOADED_UNLOCK OP_REFCNT_UNLOCK
1777 # endif
1778
1779 static void vmg_global_teardown_late_locked(pTHX) {
1780 #define vmg_global_teardown_late_locked() vmg_global_teardown_late_locked(aTHX)
1781  MUTEX_DESTROY(&vmg_op_name_init_mutex);
1782  MUTEX_DESTROY(&vmg_vtable_refcount_mutex);
1783
1784  return;
1785 }
1786
1787 static int vmg_global_teardown_free(pTHX_ SV *sv, MAGIC *mg) {
1788  VMG_LOADED_LOCK;
1789
1790  if (vmg_loaded == 0)
1791   vmg_global_teardown_late_locked();
1792
1793  VMG_LOADED_UNLOCK;
1794
1795  return 0;
1796 }
1797
1798 static MGVTBL vmg_global_teardown_vtbl = {
1799  0,
1800  0,
1801  0,
1802  0,
1803  vmg_global_teardown_free
1804 #if MGf_COPY
1805  , 0
1806 #endif
1807 #if MGf_DUP
1808  , 0
1809 #endif
1810 #if MGf_LOCAL
1811  , 0
1812 #endif
1813 };
1814
1815 static signed char vmg_destruct_level(pTHX) {
1816 #define vmg_destruct_level() vmg_destruct_level(aTHX)
1817  signed char lvl;
1818
1819  lvl = PL_perl_destruct_level;
1820
1821 #ifdef DEBUGGING
1822  {
1823   const char *s = PerlEnv_getenv("PERL_DESTRUCT_LEVEL");
1824   if (s) {
1825    int i;
1826 #if VMG_HAS_PERL(5, 21, 3)
1827    if (strEQ(s, "-1")) {
1828     i = -1;
1829    } else {
1830 # if VMG_HAS_PERL(5, 21, 10)
1831     UV uv;
1832     if (Perl_grok_atoUV(s, &uv, NULL) && uv <= INT_MAX)
1833      i = (int) uv;
1834     else
1835      i = 0;
1836 # else /* VMG_HAS_PERL(5, 21, 3) && !VMG_HAS_PERL(5, 21, 10) */
1837     i = Perl_grok_atou(s, NULL);
1838 # endif
1839    }
1840 #else /* !VMG_HAS_PERL(5, 21, 3) */
1841    i = atoi(s);
1842 #endif
1843    if (lvl < i)
1844     lvl = i;
1845   }
1846  }
1847 #endif
1848
1849  return lvl;
1850 }
1851
1852 #endif /* VMG_THREADSAFE */
1853
1854 static void vmg_teardown(pTHX_ void *param) {
1855  dMY_CXT;
1856
1857 #if VMG_THREADSAFE
1858  VMG_LOADED_LOCK;
1859
1860  if (vmg_loaded == 1) {
1861   vmg_loaded = 0;
1862   if (vmg_destruct_level() == 0) {
1863    vmg_global_teardown_late_locked();
1864   } else {
1865    if (!PL_strtab)
1866     PL_strtab = newHV();
1867    vmg_sv_magicext((SV *) PL_strtab, NULL, &vmg_global_teardown_vtbl, NULL, 0);
1868   }
1869  } else {
1870   VMG_ASSERT(vmg_loaded > 1);
1871   --vmg_loaded;
1872  }
1873
1874  VMG_LOADED_UNLOCK;
1875 #endif
1876
1877  if (MY_CXT.depth == 0 && MY_CXT.freed_tokens) {
1878   vmg_magic_chain_free(MY_CXT.freed_tokens, NULL);
1879   MY_CXT.freed_tokens = NULL;
1880  }
1881
1882  return;
1883 }
1884
1885 static void vmg_setup(pTHX) {
1886 #define vmg_setup() vmg_setup(aTHX)
1887  HV *stash;
1888  int c;
1889  MY_CXT_INIT;
1890
1891 #if VMG_THREADSAFE
1892  VMG_LOADED_LOCK;
1893
1894  if (vmg_loaded == 0) {
1895   MUTEX_INIT(&vmg_vtable_refcount_mutex);
1896   MUTEX_INIT(&vmg_op_name_init_mutex);
1897   vmg_loaded = 1;
1898  } else {
1899   VMG_ASSERT(vmg_loaded > 0);
1900   ++vmg_loaded;
1901  }
1902
1903  VMG_LOADED_UNLOCK;
1904 #endif
1905
1906  for (c = OPc_NULL; c < OPc_MAX; ++c)
1907   MY_CXT.b__op_stashes[c] = NULL;
1908
1909  MY_CXT.depth        = 0;
1910  MY_CXT.freed_tokens = NULL;
1911
1912 #if VMG_PROPAGATE_ERRSV_NEEDS_TRAMPOLINE
1913  vmg_trampoline_init(&MY_CXT.propagate_errsv, vmg_pp_propagate_errsv);
1914 #endif
1915 #if VMG_RESET_RMG_NEEDS_TRAMPOLINE
1916  vmg_trampoline_init(&MY_CXT.reset_rmg, vmg_pp_reset_rmg);
1917 #endif
1918
1919  stash = gv_stashpv(__PACKAGE__, 1);
1920  newCONSTSUB(stash, "MGf_COPY",  newSVuv(MGf_COPY));
1921  newCONSTSUB(stash, "MGf_DUP",   newSVuv(MGf_DUP));
1922  newCONSTSUB(stash, "MGf_LOCAL", newSVuv(MGf_LOCAL));
1923  newCONSTSUB(stash, "VMG_UVAR",  newSVuv(VMG_UVAR));
1924  newCONSTSUB(stash, "VMG_COMPAT_SCALAR_LENGTH_NOLEN",
1925                     newSVuv(VMG_COMPAT_SCALAR_LENGTH_NOLEN));
1926  newCONSTSUB(stash, "VMG_COMPAT_SCALAR_NOLEN",
1927                     newSVuv(VMG_COMPAT_SCALAR_NOLEN));
1928  newCONSTSUB(stash, "VMG_COMPAT_ARRAY_PUSH_NOLEN",
1929                     newSVuv(VMG_COMPAT_ARRAY_PUSH_NOLEN));
1930  newCONSTSUB(stash, "VMG_COMPAT_ARRAY_PUSH_NOLEN_VOID",
1931                     newSVuv(VMG_COMPAT_ARRAY_PUSH_NOLEN_VOID));
1932  newCONSTSUB(stash, "VMG_COMPAT_ARRAY_UNSHIFT_NOLEN_VOID",
1933                     newSVuv(VMG_COMPAT_ARRAY_UNSHIFT_NOLEN_VOID));
1934  newCONSTSUB(stash, "VMG_COMPAT_ARRAY_UNDEF_CLEAR",
1935                     newSVuv(VMG_COMPAT_ARRAY_UNDEF_CLEAR));
1936  newCONSTSUB(stash, "VMG_COMPAT_HASH_DELETE_NOUVAR_VOID",
1937                     newSVuv(VMG_COMPAT_HASH_DELETE_NOUVAR_VOID));
1938  newCONSTSUB(stash, "VMG_COMPAT_CODE_COPY_CLONE",
1939                     newSVuv(VMG_COMPAT_CODE_COPY_CLONE));
1940  newCONSTSUB(stash, "VMG_COMPAT_GLOB_GET", newSVuv(VMG_COMPAT_GLOB_GET));
1941  newCONSTSUB(stash, "VMG_PERL_PATCHLEVEL", newSVuv(VMG_PERL_PATCHLEVEL));
1942  newCONSTSUB(stash, "VMG_THREADSAFE",      newSVuv(VMG_THREADSAFE));
1943  newCONSTSUB(stash, "VMG_FORKSAFE",        newSVuv(VMG_FORKSAFE));
1944  newCONSTSUB(stash, "VMG_OP_INFO_NAME",    newSVuv(VMG_OP_INFO_NAME));
1945  newCONSTSUB(stash, "VMG_OP_INFO_OBJECT",  newSVuv(VMG_OP_INFO_OBJECT));
1946
1947  call_atexit(vmg_teardown, NULL);
1948
1949  return;
1950 }
1951
1952 /* --- Macros for the XS section ------------------------------------------- */
1953
1954 #ifdef CvISXSUB
1955 # define VMG_CVOK(C) \
1956    ((CvISXSUB(C) ? (void *) CvXSUB(C) : (void *) CvROOT(C)) ? 1 : 0)
1957 #else
1958 # define VMG_CVOK(C) (CvROOT(C) || CvXSUB(C))
1959 #endif
1960
1961 #define VMG_CBOK(S) ((SvTYPE(S) == SVt_PVCV) ? VMG_CVOK(S) : SvOK(S))
1962
1963 #define VMG_SET_CB(S, N) {       \
1964  SV *cb = (S);                   \
1965  if (SvOK(cb) && SvROK(cb)) {    \
1966   cb = SvRV(cb);                 \
1967   if (VMG_CBOK(cb))              \
1968    SvREFCNT_inc_simple_void(cb); \
1969   else                           \
1970    cb = NULL;                    \
1971  } else {                        \
1972   cb = NULL;                     \
1973  }                               \
1974  w->cb_ ## N = cb;               \
1975 }
1976
1977 #define VMG_SET_SVT_CB(S, N) {   \
1978  SV *cb = (S);                   \
1979  if (SvOK(cb) && SvROK(cb)) {    \
1980   cb = SvRV(cb);                 \
1981   if (VMG_CBOK(cb)) {            \
1982    t->svt_ ## N = vmg_svt_ ## N; \
1983    SvREFCNT_inc_simple_void(cb); \
1984   } else {                       \
1985    t->svt_ ## N = vmg_svt_ ## N ## _noop; \
1986    cb           = NULL;          \
1987   }                              \
1988  } else {                        \
1989   t->svt_ ## N = NULL;           \
1990   cb           = NULL;           \
1991  }                               \
1992  w->cb_ ## N = cb;               \
1993 }
1994
1995 /* --- XS ------------------------------------------------------------------ */
1996
1997 MODULE = Variable::Magic            PACKAGE = Variable::Magic
1998
1999 PROTOTYPES: ENABLE
2000
2001 BOOT:
2002 {
2003  vmg_setup();
2004 }
2005
2006 #if VMG_THREADSAFE
2007
2008 void
2009 CLONE(...)
2010 PROTOTYPE: DISABLE
2011 PREINIT:
2012  U32 had_b__op_stash = 0;
2013  I32 old_depth;
2014  int c;
2015 PPCODE:
2016  {
2017   dMY_CXT;
2018   for (c = OPc_NULL; c < OPc_MAX; ++c) {
2019    if (MY_CXT.b__op_stashes[c])
2020     had_b__op_stash |= (((U32) 1) << c);
2021   }
2022   old_depth = MY_CXT.depth;
2023  }
2024  {
2025   MY_CXT_CLONE;
2026   for (c = OPc_NULL; c < OPc_MAX; ++c) {
2027    MY_CXT.b__op_stashes[c] = (had_b__op_stash & (((U32) 1) << c))
2028                               ? gv_stashpv(vmg_opclassnames[c], 1) : NULL;
2029   }
2030   MY_CXT.depth        = old_depth;
2031   MY_CXT.freed_tokens = NULL;
2032   VMG_LOADED_LOCK;
2033   VMG_ASSERT(vmg_loaded > 0);
2034   ++vmg_loaded;
2035   VMG_LOADED_UNLOCK;
2036  }
2037  XSRETURN(0);
2038
2039 #endif /* VMG_THREADSAFE */
2040
2041 SV *_wizard(...)
2042 PROTOTYPE: DISABLE
2043 PREINIT:
2044  vmg_wizard *w;
2045  MGVTBL *t;
2046  SV *op_info, *copy_key;
2047  I32 i = 0;
2048 CODE:
2049  if (items != 9
2050 #if MGf_LOCAL
2051               + 1
2052 #endif /* MGf_LOCAL */
2053 #if VMG_UVAR
2054               + 5
2055 #endif /* VMG_UVAR */
2056               ) { croak(vmg_wrongargnum); }
2057
2058  op_info = ST(i++);
2059  w = vmg_wizard_alloc(SvOK(op_info) ? SvUV(op_info) : 0);
2060  t = vmg_vtable_vtbl(w->vtable);
2061
2062  VMG_SET_CB(ST(i++), data);
2063
2064  VMG_SET_SVT_CB(ST(i++), get);
2065  VMG_SET_SVT_CB(ST(i++), set);
2066  VMG_SET_SVT_CB(ST(i++), len);
2067  VMG_SET_SVT_CB(ST(i++), clear);
2068  VMG_SET_SVT_CB(ST(i++), free);
2069  VMG_SET_SVT_CB(ST(i++), copy);
2070  /* VMG_SET_SVT_CB(ST(i++), dup); */
2071  i++;
2072  t->svt_dup = NULL;
2073  w->cb_dup  = NULL;
2074 #if MGf_LOCAL
2075  VMG_SET_SVT_CB(ST(i++), local);
2076 #endif /* MGf_LOCAL */
2077 #if VMG_UVAR
2078  VMG_SET_CB(ST(i++), fetch);
2079  VMG_SET_CB(ST(i++), store);
2080  VMG_SET_CB(ST(i++), exists);
2081  VMG_SET_CB(ST(i++), delete);
2082
2083  copy_key = ST(i++);
2084  if (w->cb_fetch || w->cb_store || w->cb_exists || w->cb_delete)
2085   w->uvar = SvTRUE(copy_key) ? 2 : 1;
2086 #endif /* VMG_UVAR */
2087
2088  RETVAL = newRV_noinc(vmg_wizard_sv_new(w));
2089 OUTPUT:
2090  RETVAL
2091
2092 SV *cast(SV *sv, SV *wiz, ...)
2093 PROTOTYPE: \[$@%&*]$@
2094 PREINIT:
2095  const vmg_wizard *w = NULL;
2096  SV **args = NULL;
2097  I32 i = 0;
2098 CODE:
2099  if (items > 2) {
2100   i = items - 2;
2101   args = &ST(2);
2102  }
2103  if (SvROK(wiz)) {
2104   wiz = SvRV_const(wiz);
2105   w   = vmg_wizard_from_sv(wiz);
2106  }
2107  if (!w)
2108   croak(vmg_invalid_wiz);
2109  RETVAL = newSVuv(vmg_cast(SvRV(sv), w, wiz, args, i));
2110 OUTPUT:
2111  RETVAL
2112
2113 void
2114 getdata(SV *sv, SV *wiz)
2115 PROTOTYPE: \[$@%&*]$
2116 PREINIT:
2117  const vmg_wizard *w = NULL;
2118  SV *data;
2119 PPCODE:
2120  if (SvROK(wiz))
2121   w = vmg_wizard_from_sv(SvRV_const(wiz));
2122  if (!w)
2123   croak(vmg_invalid_wiz);
2124  data = vmg_data_get(SvRV(sv), w);
2125  if (!data)
2126   XSRETURN_EMPTY;
2127  ST(0) = data;
2128  XSRETURN(1);
2129
2130 SV *dispell(SV *sv, SV *wiz)
2131 PROTOTYPE: \[$@%&*]$
2132 PREINIT:
2133  const vmg_wizard *w = NULL;
2134 CODE:
2135  if (SvROK(wiz))
2136   w = vmg_wizard_from_sv(SvRV_const(wiz));
2137  if (!w)
2138   croak(vmg_invalid_wiz);
2139  RETVAL = newSVuv(vmg_dispell(SvRV(sv), w));
2140 OUTPUT:
2141  RETVAL