]> git.vpit.fr Git - perl/modules/Variable-Magic.git/blob - Magic.xs
Don't lock the VMG_LOADED mutex across global destruction
[perl/modules/Variable-Magic.git] / Magic.xs
1 /* This file is part of the Variable::Magic Perl module.
2  * See http://search.cpan.org/dist/Variable-Magic/ */
3
4 #include <stdarg.h> /* <va_list>, va_{start,arg,end}, ... */
5
6 #include <stdio.h>  /* sprintf() */
7
8 #define PERL_NO_GET_CONTEXT
9 #include "EXTERN.h"
10 #include "perl.h"
11 #include "XSUB.h"
12
13 #define __PACKAGE__ "Variable::Magic"
14
15 #undef VOID2
16 #ifdef __cplusplus
17 # define VOID2(T, P) static_cast<T>(P)
18 #else
19 # define VOID2(T, P) (P)
20 #endif
21
22 #ifndef VMG_PERL_PATCHLEVEL
23 # ifdef PERL_PATCHNUM
24 #  define VMG_PERL_PATCHLEVEL PERL_PATCHNUM
25 # else
26 #  define VMG_PERL_PATCHLEVEL 0
27 # endif
28 #endif
29
30 #define VMG_HAS_PERL(R, V, S) (PERL_REVISION > (R) || (PERL_REVISION == (R) && (PERL_VERSION > (V) || (PERL_VERSION == (V) && (PERL_SUBVERSION >= (S))))))
31
32 #define VMG_HAS_PERL_BRANCH(R, V, S) (PERL_REVISION == (R) && PERL_VERSION == (V) && PERL_SUBVERSION >= (S))
33
34 #define VMG_HAS_PERL_MAINT(R, V, S, P) (PERL_REVISION == (R) && PERL_VERSION == (V) && (VMG_PERL_PATCHLEVEL >= (P) || (!VMG_PERL_PATCHLEVEL && PERL_SUBVERSION >= (S))))
35
36 /* --- Threads and multiplicity -------------------------------------------- */
37
38 #ifndef NOOP
39 # define NOOP
40 #endif
41
42 #ifndef dNOOP
43 # define dNOOP
44 #endif
45
46 /* Safe unless stated otherwise in Makefile.PL */
47 #ifndef VMG_FORKSAFE
48 # define VMG_FORKSAFE 1
49 #endif
50
51 #ifndef VMG_MULTIPLICITY
52 # if defined(MULTIPLICITY)
53 #  define VMG_MULTIPLICITY 1
54 # else
55 #  define VMG_MULTIPLICITY 0
56 # endif
57 #endif
58 #if VMG_MULTIPLICITY
59 # ifndef PERL_IMPLICIT_CONTEXT
60 #  error MULTIPLICITY builds must set PERL_IMPLICIT_CONTEXT
61 # endif
62 #endif
63
64 #if VMG_MULTIPLICITY && defined(USE_ITHREADS) && defined(dMY_CXT) && defined(MY_CXT) && defined(START_MY_CXT) && defined(MY_CXT_INIT) && (defined(MY_CXT_CLONE) || defined(dMY_CXT_SV))
65 # define VMG_THREADSAFE 1
66 # ifndef MY_CXT_CLONE
67 #  define MY_CXT_CLONE \
68     dMY_CXT_SV;                                                      \
69     my_cxt_t *my_cxtp = (my_cxt_t*)SvPVX(newSV(sizeof(my_cxt_t)-1)); \
70     Copy(INT2PTR(my_cxt_t*, SvUV(my_cxt_sv)), my_cxtp, 1, my_cxt_t); \
71     sv_setuv(my_cxt_sv, PTR2UV(my_cxtp))
72 # endif
73 #else
74 # define VMG_THREADSAFE 0
75 # undef  dMY_CXT
76 # define dMY_CXT      dNOOP
77 # undef  MY_CXT
78 # define MY_CXT       vmg_globaldata
79 # undef  START_MY_CXT
80 # define START_MY_CXT STATIC my_cxt_t MY_CXT;
81 # undef  MY_CXT_INIT
82 # define MY_CXT_INIT  NOOP
83 # undef  MY_CXT_CLONE
84 # define MY_CXT_CLONE NOOP
85 #endif
86
87 #if VMG_THREADSAFE
88 # define VMG_LOCK(M)   MUTEX_LOCK(M)
89 # define VMG_UNLOCK(M) MUTEX_UNLOCK(M)
90 #else
91 # define VMG_LOCK(M)
92 # define VMG_UNLOCK(M)
93 #endif
94
95 /* --- Compatibility ------------------------------------------------------- */
96
97 #ifndef Newx
98 # define Newx(v, n, c) New(0, v, n, c)
99 #endif
100
101 #ifndef SvMAGIC_set
102 # define SvMAGIC_set(sv, val) (SvMAGIC(sv) = (val))
103 #endif
104
105 #ifndef SvRV_const
106 # define SvRV_const(sv) SvRV((SV *) sv)
107 #endif
108
109 #ifndef SvREFCNT_inc_simple_void
110 # define SvREFCNT_inc_simple_void(sv) ((void) SvREFCNT_inc(sv))
111 #endif
112
113 #ifndef mPUSHu
114 # define mPUSHu(U) PUSHs(sv_2mortal(newSVuv(U)))
115 #endif
116
117 #ifndef PERL_MAGIC_ext
118 # define PERL_MAGIC_ext '~'
119 #endif
120
121 #ifndef PERL_MAGIC_tied
122 # define PERL_MAGIC_tied 'P'
123 #endif
124
125 #ifndef MGf_LOCAL
126 # define MGf_LOCAL 0
127 #endif
128
129 #ifndef IN_PERL_COMPILETIME
130 # define IN_PERL_COMPILETIME (PL_curcop == &PL_compiling)
131 #endif
132
133 /* uvar magic and Hash::Util::FieldHash were commited with 28419, but we only
134  * enable them on 5.10 */
135 #if VMG_HAS_PERL(5, 10, 0)
136 # define VMG_UVAR 1
137 #else
138 # define VMG_UVAR 0
139 #endif
140
141 #if VMG_HAS_PERL_MAINT(5, 11, 0, 32969) || VMG_HAS_PERL(5, 12, 0)
142 # define VMG_COMPAT_SCALAR_LENGTH_NOLEN 1
143 #else
144 # define VMG_COMPAT_SCALAR_LENGTH_NOLEN 0
145 #endif
146
147 #if VMG_HAS_PERL(5, 17, 4)
148 # define VMG_COMPAT_SCALAR_NOLEN 1
149 #else
150 # define VMG_COMPAT_SCALAR_NOLEN 0
151 #endif
152
153 /* Applied to dev-5.9 as 25854, integrated to maint-5.8 as 28160, partially
154  * reverted to dev-5.11 as 9cdcb38b */
155 #if VMG_HAS_PERL_MAINT(5, 8, 9, 28160) || VMG_HAS_PERL_MAINT(5, 9, 3, 25854) || VMG_HAS_PERL(5, 10, 0)
156 # ifndef VMG_COMPAT_ARRAY_PUSH_NOLEN
157 #  if VMG_HAS_PERL(5, 11, 0)
158 #   define VMG_COMPAT_ARRAY_PUSH_NOLEN 0
159 #  else
160 #   define VMG_COMPAT_ARRAY_PUSH_NOLEN 1
161 #  endif
162 # endif
163 # ifndef VMG_COMPAT_ARRAY_PUSH_NOLEN_VOID
164 #  define VMG_COMPAT_ARRAY_PUSH_NOLEN_VOID 1
165 # endif
166 #else
167 # ifndef VMG_COMPAT_ARRAY_PUSH_NOLEN
168 #  define VMG_COMPAT_ARRAY_PUSH_NOLEN 0
169 # endif
170 # ifndef VMG_COMPAT_ARRAY_PUSH_NOLEN_VOID
171 #  define VMG_COMPAT_ARRAY_PUSH_NOLEN_VOID 0
172 # endif
173 #endif
174
175 /* Applied to dev-5.11 as 34908 */
176 #if VMG_HAS_PERL_MAINT(5, 11, 0, 34908) || VMG_HAS_PERL(5, 12, 0)
177 # define VMG_COMPAT_ARRAY_UNSHIFT_NOLEN_VOID 1
178 #else
179 # define VMG_COMPAT_ARRAY_UNSHIFT_NOLEN_VOID 0
180 #endif
181
182 /* Applied to dev-5.9 as 31473 (see #43357), integrated to maint-5.8 as 32542 */
183 #if VMG_HAS_PERL_MAINT(5, 8, 9, 32542) || VMG_HAS_PERL_MAINT(5, 9, 5, 31473) || VMG_HAS_PERL(5, 10, 0)
184 # define VMG_COMPAT_ARRAY_UNDEF_CLEAR 1
185 #else
186 # define VMG_COMPAT_ARRAY_UNDEF_CLEAR 0
187 #endif
188
189 #if VMG_HAS_PERL(5, 11, 0)
190 # define VMG_COMPAT_HASH_DELETE_NOUVAR_VOID 1
191 #else
192 # define VMG_COMPAT_HASH_DELETE_NOUVAR_VOID 0
193 #endif
194
195 #if VMG_HAS_PERL(5, 17, 0)
196 # define VMG_COMPAT_CODE_COPY_CLONE 1
197 #else
198 # define VMG_COMPAT_CODE_COPY_CLONE 0
199 #endif
200
201 #if VMG_HAS_PERL(5, 13, 2)
202 # define VMG_COMPAT_GLOB_GET 1
203 #else
204 # define VMG_COMPAT_GLOB_GET 0
205 #endif
206
207 #define VMG_PROPAGATE_ERRSV_NEEDS_TRAMPOLINE (VMG_HAS_PERL(5, 10, 0) && !VMG_HAS_PERL(5, 10, 1))
208
209 /* NewOp() isn't public in perl 5.8.0. */
210 #define VMG_RESET_RMG_NEEDS_TRAMPOLINE (VMG_UVAR && (VMG_THREADSAFE || !VMG_HAS_PERL(5, 8, 1)))
211
212 /* ... Bug-free mg_magical ................................................. */
213
214 /* See the discussion at http://www.xray.mpe.mpg.de/mailing-lists/perl5-porters/2008-01/msg00036.html */
215
216 #if VMG_HAS_PERL(5, 11, 3)
217
218 #define vmg_mg_magical(S) mg_magical(S)
219
220 #else
221
222 static void vmg_mg_magical(SV *sv) {
223  const MAGIC *mg;
224
225  SvMAGICAL_off(sv);
226  if ((mg = SvMAGIC(sv))) {
227   do {
228    const MGVTBL* const vtbl = mg->mg_virtual;
229    if (vtbl) {
230     if (vtbl->svt_get && !(mg->mg_flags & MGf_GSKIP))
231      SvGMAGICAL_on(sv);
232     if (vtbl->svt_set)
233      SvSMAGICAL_on(sv);
234     if (vtbl->svt_clear)
235      SvRMAGICAL_on(sv);
236    }
237   } while ((mg = mg->mg_moremagic));
238   if (!(SvFLAGS(sv) & (SVs_GMG|SVs_SMG)))
239    SvRMAGICAL_on(sv);
240  }
241 }
242
243 #endif
244
245 /* --- Trampoline ops ------------------------------------------------------ */
246
247 #define VMG_NEEDS_TRAMPOLINE VMG_PROPAGATE_ERRSV_NEEDS_TRAMPOLINE || VMG_RESET_RMG_NEEDS_TRAMPOLINE
248
249 #if VMG_NEEDS_TRAMPOLINE
250
251 typedef struct {
252  OP   temp;
253  SVOP target;
254 } vmg_trampoline;
255
256 static void vmg_trampoline_init(vmg_trampoline *t, OP *(*cb)(pTHX)) {
257  t->temp.op_type    = OP_STUB;
258  t->temp.op_ppaddr  = 0;
259  t->temp.op_next    = (OP *) &t->target;
260  t->temp.op_flags   = 0;
261  t->temp.op_private = 0;
262
263  t->target.op_type    = OP_STUB;
264  t->target.op_ppaddr  = cb;
265  t->target.op_next    = NULL;
266  t->target.op_flags   = 0;
267  t->target.op_private = 0;
268  t->target.op_sv      = NULL;
269 }
270
271 static OP *vmg_trampoline_bump(pTHX_ vmg_trampoline *t, SV *sv, OP *o) {
272 #define vmg_trampoline_bump(T, S, O) vmg_trampoline_bump(aTHX_ (T), (S), (O))
273  t->temp         = *o;
274  t->temp.op_next = (OP *) &t->target;
275
276  t->target.op_sv   = sv;
277  t->target.op_next = o->op_next;
278
279  return &t->temp;
280 }
281
282 #endif /* VMG_NEEDS_TRAMPOLINE */
283
284 /* --- Cleaner version of sv_magicext() ------------------------------------ */
285
286 static MAGIC *vmg_sv_magicext(pTHX_ SV *sv, SV *obj, const MGVTBL *vtbl, const void *ptr, I32 len) {
287 #define vmg_sv_magicext(S, O, V, P, L) vmg_sv_magicext(aTHX_ (S), (O), (V), (P), (L))
288  MAGIC *mg;
289
290  mg = sv_magicext(sv, obj, PERL_MAGIC_ext, vtbl, ptr, len);
291  if (!mg)
292   return NULL;
293
294  mg->mg_private = 0;
295
296  if (vtbl->svt_copy)
297   mg->mg_flags |= MGf_COPY;
298 #if MGf_DUP
299  if (vtbl->svt_dup)
300   mg->mg_flags |= MGf_DUP;
301 #endif /* MGf_DUP */
302 #if MGf_LOCAL
303  if (vtbl->svt_local)
304   mg->mg_flags |= MGf_LOCAL;
305 #endif /* MGf_LOCAL */
306
307  if (mg->mg_flags & MGf_REFCOUNTED)
308   SvREFCNT_dec(obj);
309
310  return mg;
311 }
312
313 /* --- Safe version of call_sv() ------------------------------------------- */
314
315 static I32 vmg_call_sv(pTHX_ SV *sv, I32 flags, int (*cleanup)(pTHX_ void *), void *ud) {
316 #define vmg_call_sv(S, F, C, U) vmg_call_sv(aTHX_ (S), (F), (C), (U))
317  I32 ret, cxix;
318  PERL_CONTEXT saved_cx;
319  SV *old_err = NULL;
320
321  if (SvTRUE(ERRSV)) {
322   old_err = newSVsv(ERRSV);
323   sv_setsv(ERRSV, &PL_sv_undef);
324  }
325
326  cxix     = (cxstack_ix < cxstack_max) ? (cxstack_ix + 1) : Perl_cxinc(aTHX);
327  /* The last popped context will be reused by call_sv(), but our callers may
328   * still need its previous value. Back it up so that it isn't clobbered. */
329  saved_cx = cxstack[cxix];
330
331  ret = call_sv(sv, flags | G_EVAL);
332
333  cxstack[cxix] = saved_cx;
334
335  if (SvTRUE(ERRSV)) {
336   SvREFCNT_dec(old_err);
337
338   if (IN_PERL_COMPILETIME) {
339    if (!PL_in_eval) {
340     if (PL_errors)
341      sv_catsv(PL_errors, ERRSV);
342     else
343      Perl_warn(aTHX_ "%s", SvPV_nolen(ERRSV));
344     SvCUR_set(ERRSV, 0);
345    }
346 #if VMG_HAS_PERL(5, 10, 0) || defined(PL_parser)
347    if (PL_parser)
348     ++PL_parser->error_count;
349 #elif defined(PL_error_count)
350    ++PL_error_count;
351 #else
352    ++PL_Ierror_count;
353 #endif
354   } else {
355    if (!cleanup || cleanup(aTHX_ ud))
356     croak(NULL);
357   }
358  } else {
359   if (old_err) {
360    sv_setsv(ERRSV, old_err);
361    SvREFCNT_dec(old_err);
362   }
363  }
364
365  return ret;
366 }
367
368 /* --- Stolen chunk of B --------------------------------------------------- */
369
370 typedef enum {
371  OPc_NULL,
372  OPc_BASEOP,
373  OPc_UNOP,
374  OPc_BINOP,
375  OPc_LOGOP,
376  OPc_LISTOP,
377  OPc_PMOP,
378  OPc_SVOP,
379  OPc_PADOP,
380  OPc_PVOP,
381  OPc_LOOP,
382  OPc_COP,
383 #if VMG_HAS_PERL(5, 21, 5)
384  OPc_METHOP,
385 #endif
386  OPc_MAX
387 } opclass;
388
389 static const char *const vmg_opclassnames[] = {
390  "B::NULL",
391  "B::OP",
392  "B::UNOP",
393  "B::BINOP",
394  "B::LOGOP",
395  "B::LISTOP",
396  "B::PMOP",
397  "B::SVOP",
398  "B::PADOP",
399  "B::PVOP",
400  "B::LOOP",
401  "B::COP",
402 #if VMG_HAS_PERL(5, 21, 5)
403  "B::METHOP",
404 #endif
405  NULL
406 };
407
408 static opclass vmg_opclass(const OP *o) {
409 #if 0
410  if (!o)
411   return OPc_NULL;
412 #endif
413
414  if (o->op_type == 0)
415   return (o->op_flags & OPf_KIDS) ? OPc_UNOP : OPc_BASEOP;
416
417  if (o->op_type == OP_SASSIGN)
418   return ((o->op_private & OPpASSIGN_BACKWARDS) ? OPc_UNOP : OPc_BINOP);
419
420  if (o->op_type == OP_AELEMFAST) {
421 #if PERL_VERSION <= 14
422   if (o->op_flags & OPf_SPECIAL)
423    return OPc_BASEOP;
424   else
425 #endif
426 #ifdef USE_ITHREADS
427    return OPc_PADOP;
428 #else
429    return OPc_SVOP;
430 #endif
431  }
432
433 #ifdef USE_ITHREADS
434  if (o->op_type == OP_GV || o->op_type == OP_GVSV || o->op_type == OP_RCATLINE)
435   return OPc_PADOP;
436 #endif
437
438  switch (PL_opargs[o->op_type] & OA_CLASS_MASK) {
439   case OA_BASEOP:
440    return OPc_BASEOP;
441   case OA_UNOP:
442    return OPc_UNOP;
443   case OA_BINOP:
444    return OPc_BINOP;
445   case OA_LOGOP:
446    return OPc_LOGOP;
447   case OA_LISTOP:
448    return OPc_LISTOP;
449   case OA_PMOP:
450    return OPc_PMOP;
451   case OA_SVOP:
452    return OPc_SVOP;
453   case OA_PADOP:
454    return OPc_PADOP;
455   case OA_PVOP_OR_SVOP:
456    return (o->op_private & (OPpTRANS_TO_UTF|OPpTRANS_FROM_UTF)) ? OPc_SVOP : OPc_PVOP;
457   case OA_LOOP:
458    return OPc_LOOP;
459   case OA_COP:
460    return OPc_COP;
461   case OA_BASEOP_OR_UNOP:
462    return (o->op_flags & OPf_KIDS) ? OPc_UNOP : OPc_BASEOP;
463   case OA_FILESTATOP:
464    return ((o->op_flags & OPf_KIDS) ? OPc_UNOP :
465 #ifdef USE_ITHREADS
466            (o->op_flags & OPf_REF) ? OPc_PADOP : OPc_BASEOP);
467 #else
468            (o->op_flags & OPf_REF) ? OPc_SVOP : OPc_BASEOP);
469 #endif
470   case OA_LOOPEXOP:
471    if (o->op_flags & OPf_STACKED)
472     return OPc_UNOP;
473    else if (o->op_flags & OPf_SPECIAL)
474     return OPc_BASEOP;
475    else
476     return OPc_PVOP;
477 #if VMG_HAS_PERL(5, 21, 5)
478   case OA_METHOP:
479    return OPc_METHOP;
480 #endif
481  }
482
483  return OPc_BASEOP;
484 }
485
486 /* --- Error messages ------------------------------------------------------ */
487
488 static const char vmg_invalid_wiz[]    = "Invalid wizard object";
489 static const char vmg_wrongargnum[]    = "Wrong number of arguments";
490 static const char vmg_argstorefailed[] = "Error while storing arguments";
491
492 /* --- Context-safe global data -------------------------------------------- */
493
494 #define MY_CXT_KEY __PACKAGE__ "::_guts" XS_VERSION
495
496 typedef struct {
497  HV             *b__op_stashes[OPc_MAX];
498  I32             depth;
499  MAGIC          *freed_tokens;
500 #if VMG_PROPAGATE_ERRSV_NEEDS_TRAMPOLINE
501  vmg_trampoline  propagate_errsv;
502 #endif
503 #if VMG_RESET_RMG_NEEDS_TRAMPOLINE
504  vmg_trampoline  reset_rmg;
505 #endif
506 } my_cxt_t;
507
508 START_MY_CXT
509
510 /* --- <vmg_vtable> structure ---------------------------------------------- */
511
512 #if VMG_THREADSAFE
513
514 typedef struct {
515  MGVTBL *vtbl;
516  U32     refcount;
517 } vmg_vtable;
518
519 static vmg_vtable *vmg_vtable_alloc(pTHX) {
520 #define vmg_vtable_alloc() vmg_vtable_alloc(aTHX)
521  vmg_vtable *t;
522
523  t = VOID2(vmg_vtable *, PerlMemShared_malloc(sizeof *t));
524
525  t->vtbl     = VOID2(MGVTBL *, PerlMemShared_malloc(sizeof *t->vtbl));
526  t->refcount = 1;
527
528  return t;
529 }
530
531 #define vmg_vtable_vtbl(T) (T)->vtbl
532
533 static perl_mutex vmg_vtable_refcount_mutex;
534
535 static vmg_vtable *vmg_vtable_dup(pTHX_ vmg_vtable *t) {
536 #define vmg_vtable_dup(T) vmg_vtable_dup(aTHX_ (T))
537  VMG_LOCK(&vmg_vtable_refcount_mutex);
538  ++t->refcount;
539  VMG_UNLOCK(&vmg_vtable_refcount_mutex);
540
541  return t;
542 }
543
544 static void vmg_vtable_free(pTHX_ vmg_vtable *t) {
545 #define vmg_vtable_free(T) vmg_vtable_free(aTHX_ (T))
546  U32 refcount;
547
548  VMG_LOCK(&vmg_vtable_refcount_mutex);
549  refcount = --t->refcount;
550  VMG_UNLOCK(&vmg_vtable_refcount_mutex);
551
552  if (!refcount) {
553   PerlMemShared_free(t->vtbl);
554   PerlMemShared_free(t);
555  }
556 }
557
558 #else /* VMG_THREADSAFE */
559
560 typedef MGVTBL vmg_vtable;
561
562 static vmg_vtable *vmg_vtable_alloc(pTHX) {
563 #define vmg_vtable_alloc() vmg_vtable_alloc(aTHX)
564  vmg_vtable *t;
565
566  Newx(t, 1, vmg_vtable);
567
568  return t;
569 }
570
571 #define vmg_vtable_vtbl(T) ((MGVTBL *) (T))
572
573 #define vmg_vtable_free(T) Safefree(T)
574
575 #endif /* !VMG_THREADSAFE */
576
577 /* --- <vmg_wizard> structure ---------------------------------------------- */
578
579 typedef struct {
580  vmg_vtable *vtable;
581
582  U8 opinfo;
583  U8 uvar;
584
585  SV *cb_data;
586  SV *cb_get, *cb_set, *cb_len, *cb_clear, *cb_free;
587  SV *cb_copy;
588  SV *cb_dup;
589 #if MGf_LOCAL
590  SV *cb_local;
591 #endif /* MGf_LOCAL */
592 #if VMG_UVAR
593  SV *cb_fetch, *cb_store, *cb_exists, *cb_delete;
594 #endif /* VMG_UVAR */
595 } vmg_wizard;
596
597 static void vmg_op_info_init(pTHX_ unsigned int opinfo);
598
599 static vmg_wizard *vmg_wizard_alloc(pTHX_ UV opinfo) {
600 #define vmg_wizard_alloc(O) vmg_wizard_alloc(aTHX_ (O))
601  vmg_wizard *w;
602
603  Newx(w, 1, vmg_wizard);
604
605  w->uvar   = 0;
606  w->opinfo = (U8) ((opinfo < 255) ? opinfo : 255);
607  if (w->opinfo)
608   vmg_op_info_init(aTHX_ w->opinfo);
609
610  w->vtable = vmg_vtable_alloc();
611
612  return w;
613 }
614
615 static void vmg_wizard_free(pTHX_ vmg_wizard *w) {
616 #define vmg_wizard_free(W) vmg_wizard_free(aTHX_ (W))
617  if (!w)
618   return;
619
620  /* During global destruction, any of the callbacks may already have been
621   * freed, so we can't rely on still being able to access them. */
622  if (!PL_dirty) {
623   SvREFCNT_dec(w->cb_data);
624   SvREFCNT_dec(w->cb_get);
625   SvREFCNT_dec(w->cb_set);
626   SvREFCNT_dec(w->cb_len);
627   SvREFCNT_dec(w->cb_clear);
628   SvREFCNT_dec(w->cb_free);
629   SvREFCNT_dec(w->cb_copy);
630 #if 0
631   SvREFCNT_dec(w->cb_dup);
632 #endif
633 #if MGf_LOCAL
634   SvREFCNT_dec(w->cb_local);
635 #endif /* MGf_LOCAL */
636 #if VMG_UVAR
637   SvREFCNT_dec(w->cb_fetch);
638   SvREFCNT_dec(w->cb_store);
639   SvREFCNT_dec(w->cb_exists);
640   SvREFCNT_dec(w->cb_delete);
641 #endif /* VMG_UVAR */
642  }
643
644  /* PerlMemShared_free() and Safefree() are still fine during global
645   * destruction though. */
646  vmg_vtable_free(w->vtable);
647  Safefree(w);
648
649  return;
650 }
651
652 #if VMG_THREADSAFE
653
654 #define VMG_CLONE_CB(N) \
655  z->cb_ ## N = (w->cb_ ## N) ? SvREFCNT_inc(sv_dup(w->cb_ ## N, params)) \
656                              : NULL;
657
658 static const vmg_wizard *vmg_wizard_dup(pTHX_ const vmg_wizard *w, CLONE_PARAMS *params) {
659 #define vmg_wizard_dup(W, P) vmg_wizard_dup(aTHX_ (W), (P))
660  vmg_wizard *z;
661
662  if (!w)
663   return NULL;
664
665  Newx(z, 1, vmg_wizard);
666
667  z->vtable = vmg_vtable_dup(w->vtable);
668  z->uvar   = w->uvar;
669  z->opinfo = w->opinfo;
670
671  VMG_CLONE_CB(data);
672  VMG_CLONE_CB(get);
673  VMG_CLONE_CB(set);
674  VMG_CLONE_CB(len);
675  VMG_CLONE_CB(clear);
676  VMG_CLONE_CB(free);
677  VMG_CLONE_CB(copy);
678  VMG_CLONE_CB(dup);
679 #if MGf_LOCAL
680  VMG_CLONE_CB(local);
681 #endif /* MGf_LOCAL */
682 #if VMG_UVAR
683  VMG_CLONE_CB(fetch);
684  VMG_CLONE_CB(store);
685  VMG_CLONE_CB(exists);
686  VMG_CLONE_CB(delete);
687 #endif /* VMG_UVAR */
688
689  return z;
690 }
691
692 #endif /* VMG_THREADSAFE */
693
694 #define vmg_wizard_id(W) PTR2IV(vmg_vtable_vtbl((W)->vtable))
695
696 /* --- Wizard SV objects --------------------------------------------------- */
697
698 static int vmg_wizard_sv_free(pTHX_ SV *sv, MAGIC *mg) {
699  vmg_wizard_free((vmg_wizard *) mg->mg_ptr);
700
701  return 0;
702 }
703
704 #if VMG_THREADSAFE
705
706 static int vmg_wizard_sv_dup(pTHX_ MAGIC *mg, CLONE_PARAMS *params) {
707  mg->mg_ptr = (char *) vmg_wizard_dup((const vmg_wizard *) mg->mg_ptr, params);
708
709  return 0;
710 }
711
712 #endif /* VMG_THREADSAFE */
713
714 static MGVTBL vmg_wizard_sv_vtbl = {
715  NULL,               /* get */
716  NULL,               /* set */
717  NULL,               /* len */
718  NULL,               /* clear */
719  vmg_wizard_sv_free, /* free */
720  NULL,               /* copy */
721 #if VMG_THREADSAFE
722  vmg_wizard_sv_dup,  /* dup */
723 #else
724  NULL,               /* dup */
725 #endif
726 #if MGf_LOCAL
727  NULL,               /* local */
728 #endif /* MGf_LOCAL */
729 };
730
731 static SV *vmg_wizard_sv_new(pTHX_ const vmg_wizard *w) {
732 #define vmg_wizard_sv_new(W) vmg_wizard_sv_new(aTHX_ (W))
733  SV *wiz;
734
735 #if VMG_THREADSAFE
736  wiz = newSV(0);
737 #else
738  wiz = newSViv(PTR2IV(w));
739 #endif
740
741  vmg_sv_magicext(wiz, NULL, &vmg_wizard_sv_vtbl, w, 0);
742
743  SvREADONLY_on(wiz);
744
745  return wiz;
746 }
747
748 #if VMG_THREADSAFE
749
750 #define vmg_sv_has_wizard_type(S) (SvTYPE(S) >= SVt_PVMG)
751
752 static const vmg_wizard *vmg_wizard_from_sv_nocheck(const SV *wiz) {
753  MAGIC *mg;
754
755  for (mg = SvMAGIC(wiz); mg; mg = mg->mg_moremagic) {
756   if (mg->mg_type == PERL_MAGIC_ext && mg->mg_virtual == &vmg_wizard_sv_vtbl)
757    return (const vmg_wizard *) mg->mg_ptr;
758  }
759
760  return NULL;
761 }
762
763 #else /* VMG_THREADSAFE */
764
765 #define vmg_sv_has_wizard_type(S) SvIOK(S)
766
767 #define vmg_wizard_from_sv_nocheck(W) INT2PTR(const vmg_wizard *, SvIVX(W))
768
769 #endif /* !VMG_THREADSAFE */
770
771 #define vmg_wizard_from_sv(W) (vmg_sv_has_wizard_type(W) ? vmg_wizard_from_sv_nocheck(W) : NULL)
772
773 static const vmg_wizard *vmg_wizard_from_mg(const MAGIC *mg) {
774  if (mg->mg_type == PERL_MAGIC_ext && mg->mg_len == HEf_SVKEY) {
775   SV *sv = (SV *) mg->mg_ptr;
776
777   if (vmg_sv_has_wizard_type(sv))
778    return vmg_wizard_from_sv_nocheck(sv);
779  }
780
781  return NULL;
782 }
783
784 #define vmg_wizard_from_mg_nocheck(M) vmg_wizard_from_sv_nocheck((const SV *) (M)->mg_ptr)
785
786 /* --- User-level functions implementation --------------------------------- */
787
788 static const MAGIC *vmg_find(const SV *sv, const vmg_wizard *w) {
789  const MAGIC *mg;
790  IV wid;
791
792  if (SvTYPE(sv) < SVt_PVMG)
793   return NULL;
794
795  wid = vmg_wizard_id(w);
796
797  for (mg = SvMAGIC(sv); mg; mg = mg->mg_moremagic) {
798   const vmg_wizard *z = vmg_wizard_from_mg(mg);
799
800   if (z && vmg_wizard_id(z) == wid)
801    return mg;
802  }
803
804  return NULL;
805 }
806
807 /* ... Construct private data .............................................. */
808
809 static SV *vmg_data_new(pTHX_ SV *ctor, SV *sv, SV **args, I32 items) {
810 #define vmg_data_new(C, S, A, I) vmg_data_new(aTHX_ (C), (S), (A), (I))
811  I32 i;
812  SV *nsv;
813
814  dSP;
815
816  ENTER;
817  SAVETMPS;
818
819  PUSHMARK(SP);
820  EXTEND(SP, items + 1);
821  PUSHs(sv_2mortal(newRV_inc(sv)));
822  for (i = 0; i < items; ++i)
823   PUSHs(args[i]);
824  PUTBACK;
825
826  vmg_call_sv(ctor, G_SCALAR, 0, NULL);
827
828  SPAGAIN;
829  nsv = POPs;
830 #if VMG_HAS_PERL(5, 8, 3)
831  SvREFCNT_inc_simple_void(nsv); /* Or it will be destroyed in FREETMPS */
832 #else
833  nsv = sv_newref(nsv);          /* Workaround some bug in SvREFCNT_inc() */
834 #endif
835  PUTBACK;
836
837  FREETMPS;
838  LEAVE;
839
840  return nsv;
841 }
842
843 static SV *vmg_data_get(pTHX_ SV *sv, const vmg_wizard *w) {
844 #define vmg_data_get(S, W) vmg_data_get(aTHX_ (S), (W))
845  const MAGIC *mg = vmg_find(sv, w);
846
847  return mg ? mg->mg_obj : NULL;
848 }
849
850 /* ... Magic cast/dispell .................................................. */
851
852 #if VMG_UVAR
853
854 static I32 vmg_svt_val(pTHX_ IV, SV *);
855
856 typedef struct {
857  struct ufuncs new_uf;
858  struct ufuncs old_uf;
859 } vmg_uvar_ud;
860
861 #endif /* VMG_UVAR */
862
863 static void vmg_mg_del(pTHX_ SV *sv, MAGIC *prevmagic, MAGIC *mg, MAGIC *moremagic) {
864 #define vmg_mg_del(S, P, M, N) vmg_mg_del(aTHX_ (S), (P), (M), (N))
865  dMY_CXT;
866
867  if (prevmagic)
868   prevmagic->mg_moremagic = moremagic;
869  else
870   SvMAGIC_set(sv, moremagic);
871
872  /* Destroy private data */
873 #if VMG_UVAR
874  if (mg->mg_type == PERL_MAGIC_uvar) {
875   Safefree(mg->mg_ptr);
876  } else {
877 #endif /* VMG_UVAR */
878   if (mg->mg_obj != sv) {
879    SvREFCNT_dec(mg->mg_obj);
880    mg->mg_obj = NULL;
881   }
882   /* Unreference the wizard */
883   SvREFCNT_dec((SV *) mg->mg_ptr);
884   mg->mg_ptr = NULL;
885 #if VMG_UVAR
886  }
887 #endif /* VMG_UVAR */
888
889  if (MY_CXT.depth) {
890   mg->mg_moremagic    = MY_CXT.freed_tokens;
891   MY_CXT.freed_tokens = mg;
892  } else {
893   mg->mg_moremagic = NULL;
894   Safefree(mg);
895  }
896 }
897
898 static int vmg_magic_chain_free(pTHX_ MAGIC *mg, MAGIC *skip) {
899 #define vmg_magic_chain_free(M, S) vmg_magic_chain_free(aTHX_ (M), (S))
900  int skipped = 0;
901
902  while (mg) {
903   MAGIC *moremagic = mg->mg_moremagic;
904
905   if (mg == skip)
906    ++skipped;
907   else
908    Safefree(mg);
909
910   mg = moremagic;
911  }
912
913  return skipped;
914 }
915
916 static UV vmg_cast(pTHX_ SV *sv, const vmg_wizard *w, const SV *wiz, SV **args, I32 items) {
917 #define vmg_cast(S, W, WIZ, A, I) vmg_cast(aTHX_ (S), (W), (WIZ), (A), (I))
918  MAGIC  *mg;
919  MGVTBL *t;
920  SV     *data;
921  U32     oldgmg;
922
923  if (vmg_find(sv, w))
924   return 1;
925
926  oldgmg = SvGMAGICAL(sv);
927
928  data = (w->cb_data) ? vmg_data_new(w->cb_data, sv, args, items) : NULL;
929
930  t  = vmg_vtable_vtbl(w->vtable);
931  mg = vmg_sv_magicext(sv, data, t, wiz, HEf_SVKEY);
932
933  if (SvTYPE(sv) < SVt_PVHV)
934   goto done;
935
936  /* The GMAGICAL flag only says that a hash is tied or has uvar magic - get
937   * magic is actually never called for them. If the GMAGICAL flag was off before
938   * calling sv_magicext(), the hash isn't tied and has no uvar magic. If it's
939   * now on, then this wizard has get magic. Hence we can work around the
940   * get/clear shortcoming by turning the GMAGICAL flag off. If the current magic
941   * has uvar callbacks, it will be turned back on later. */
942  if (!oldgmg && SvGMAGICAL(sv))
943   SvGMAGICAL_off(sv);
944
945 #if VMG_UVAR
946  if (w->uvar) {
947   MAGIC *prevmagic, *moremagic = NULL;
948   vmg_uvar_ud ud;
949
950   ud.new_uf.uf_val   = vmg_svt_val;
951   ud.new_uf.uf_set   = NULL;
952   ud.new_uf.uf_index = 0;
953   ud.old_uf.uf_val   = NULL;
954   ud.old_uf.uf_set   = NULL;
955   ud.old_uf.uf_index = 0;
956
957   /* One uvar magic in the chain is enough. */
958   for (prevmagic = NULL, mg = SvMAGIC(sv); mg; prevmagic = mg, mg = moremagic) {
959    moremagic = mg->mg_moremagic;
960    if (mg->mg_type == PERL_MAGIC_uvar)
961     break;
962   }
963
964   if (mg) { /* Found another uvar magic. */
965    struct ufuncs *uf = (struct ufuncs *) mg->mg_ptr;
966    if (uf->uf_val == vmg_svt_val) {
967     /* It's our uvar magic, nothing to do. oldgmg was true. */
968     goto done;
969    } else {
970     /* It's another uvar magic, backup it and replace it by ours. */
971     ud.old_uf = *uf;
972     vmg_mg_del(sv, prevmagic, mg, moremagic);
973    }
974   }
975
976   sv_magic(sv, NULL, PERL_MAGIC_uvar, (const char *) &ud, sizeof(ud));
977   vmg_mg_magical(sv);
978   /* Our hash now carries uvar magic. The uvar/clear shortcoming has to be
979    * handled by our uvar callback. */
980  }
981 #endif /* VMG_UVAR */
982
983 done:
984  return 1;
985 }
986
987 static UV vmg_dispell(pTHX_ SV *sv, const vmg_wizard *w) {
988 #define vmg_dispell(S, W) vmg_dispell(aTHX_ (S), (W))
989 #if VMG_UVAR
990  U32 uvars = 0;
991 #endif /* VMG_UVAR */
992  MAGIC *mg, *prevmagic, *moremagic = NULL;
993  IV wid = vmg_wizard_id(w);
994
995  if (SvTYPE(sv) < SVt_PVMG)
996   return 0;
997
998  for (prevmagic = NULL, mg = SvMAGIC(sv); mg; prevmagic = mg, mg = moremagic) {
999   const vmg_wizard *z;
1000
1001   moremagic = mg->mg_moremagic;
1002
1003   z = vmg_wizard_from_mg(mg);
1004   if (z) {
1005    IV zid = vmg_wizard_id(z);
1006
1007 #if VMG_UVAR
1008    if (zid == wid) {
1009     /* If the current has no uvar, short-circuit uvar deletion. */
1010     uvars = z->uvar ? (uvars + 1) : 0;
1011     break;
1012    } else if (z->uvar) {
1013     ++uvars;
1014     /* We can't break here since we need to find the ext magic to delete. */
1015    }
1016 #else /* VMG_UVAR */
1017    if (zid == wid)
1018     break;
1019 #endif /* !VMG_UVAR */
1020   }
1021  }
1022  if (!mg)
1023   return 0;
1024
1025  vmg_mg_del(sv, prevmagic, mg, moremagic);
1026
1027 #if VMG_UVAR
1028  if (uvars == 1 && SvTYPE(sv) >= SVt_PVHV) {
1029   /* mg was the first ext magic in the chain that had uvar */
1030
1031   for (mg = moremagic; mg; mg = mg->mg_moremagic) {
1032    const vmg_wizard *z = vmg_wizard_from_mg(mg);
1033
1034    if (z && z->uvar) {
1035     ++uvars;
1036     break;
1037    }
1038   }
1039
1040   if (uvars == 1) {
1041    vmg_uvar_ud *ud;
1042
1043    for (prevmagic = NULL, mg = SvMAGIC(sv); mg; prevmagic = mg, mg = moremagic){
1044     moremagic = mg->mg_moremagic;
1045     if (mg->mg_type == PERL_MAGIC_uvar)
1046      break;
1047    }
1048
1049    ud = (vmg_uvar_ud *) mg->mg_ptr;
1050    if (ud->old_uf.uf_val || ud->old_uf.uf_set) {
1051     /* Revert the original uvar magic. */
1052     struct ufuncs *uf;
1053     Newx(uf, 1, struct ufuncs);
1054     *uf = ud->old_uf;
1055     Safefree(ud);
1056     mg->mg_ptr = (char *) uf;
1057     mg->mg_len = sizeof(*uf);
1058    } else {
1059     /* Remove the uvar magic. */
1060     vmg_mg_del(sv, prevmagic, mg, moremagic);
1061    }
1062   }
1063  }
1064 #endif /* VMG_UVAR */
1065
1066  vmg_mg_magical(sv);
1067
1068  return 1;
1069 }
1070
1071 /* ... OP info ............................................................. */
1072
1073 #define VMG_OP_INFO_NAME   1
1074 #define VMG_OP_INFO_OBJECT 2
1075
1076 #if VMG_THREADSAFE
1077 static perl_mutex vmg_op_name_init_mutex;
1078 #endif
1079
1080 static U32           vmg_op_name_init      = 0;
1081 static unsigned char vmg_op_name_len[MAXO] = { 0 };
1082
1083 static void vmg_op_info_init(pTHX_ unsigned int opinfo) {
1084 #define vmg_op_info_init(W) vmg_op_info_init(aTHX_ (W))
1085  switch (opinfo) {
1086   case VMG_OP_INFO_NAME:
1087    VMG_LOCK(&vmg_op_name_init_mutex);
1088    if (!vmg_op_name_init) {
1089     OPCODE t;
1090     for (t = 0; t < OP_max; ++t)
1091      vmg_op_name_len[t] = strlen(PL_op_name[t]);
1092     vmg_op_name_init = 1;
1093    }
1094    VMG_UNLOCK(&vmg_op_name_init_mutex);
1095    break;
1096   case VMG_OP_INFO_OBJECT: {
1097    dMY_CXT;
1098    if (!MY_CXT.b__op_stashes[0]) {
1099     int c;
1100     require_pv("B.pm");
1101     for (c = OPc_NULL; c < OPc_MAX; ++c)
1102      MY_CXT.b__op_stashes[c] = gv_stashpv(vmg_opclassnames[c], 1);
1103    }
1104    break;
1105   }
1106   default:
1107    break;
1108  }
1109 }
1110
1111 static SV *vmg_op_info(pTHX_ unsigned int opinfo) {
1112 #define vmg_op_info(W) vmg_op_info(aTHX_ (W))
1113  if (!PL_op)
1114   return &PL_sv_undef;
1115
1116  switch (opinfo) {
1117   case VMG_OP_INFO_NAME: {
1118    OPCODE t = PL_op->op_type;
1119    return sv_2mortal(newSVpvn(PL_op_name[t], vmg_op_name_len[t]));
1120   }
1121   case VMG_OP_INFO_OBJECT: {
1122    dMY_CXT;
1123    return sv_bless(sv_2mortal(newRV_noinc(newSViv(PTR2IV(PL_op)))),
1124                    MY_CXT.b__op_stashes[vmg_opclass(PL_op)]);
1125   }
1126   default:
1127    break;
1128  }
1129
1130  return &PL_sv_undef;
1131 }
1132
1133 /* --- svt callbacks ------------------------------------------------------- */
1134
1135 #define VMG_CB_CALL_ARGS_MASK  15
1136 #define VMG_CB_CALL_ARGS_SHIFT 4
1137 #define VMG_CB_CALL_OPINFO     (VMG_OP_INFO_NAME|VMG_OP_INFO_OBJECT) /* 1|2 */
1138 #define VMG_CB_CALL_GUARD      4
1139
1140 static int vmg_dispell_guard_oncroak(pTHX_ void *ud) {
1141  dMY_CXT;
1142
1143  MY_CXT.depth--;
1144
1145  /* If we're at the upmost magic call and we're about to die, we can just free
1146   * the tokens right now, since we will jump past the problematic part of our
1147   * caller. */
1148  if (MY_CXT.depth == 0 && MY_CXT.freed_tokens) {
1149   vmg_magic_chain_free(MY_CXT.freed_tokens, NULL);
1150   MY_CXT.freed_tokens = NULL;
1151  }
1152
1153  return 1;
1154 }
1155
1156 static int vmg_dispell_guard_free(pTHX_ SV *sv, MAGIC *mg) {
1157  vmg_magic_chain_free((MAGIC *) mg->mg_ptr, NULL);
1158
1159  return 0;
1160 }
1161
1162 #if VMG_THREADSAFE
1163
1164 static int vmg_dispell_guard_dup(pTHX_ MAGIC *mg, CLONE_PARAMS *params) {
1165  /* The freed magic tokens aren't cloned by perl because it cannot reach them
1166   * (they have been detached from their parent SV when they were enqueued).
1167   * Hence there's nothing to purge in the new thread. */
1168  mg->mg_ptr = NULL;
1169
1170  return 0;
1171 }
1172
1173 #endif /* VMG_THREADSAFE */
1174
1175 static MGVTBL vmg_dispell_guard_vtbl = {
1176  NULL,                   /* get */
1177  NULL,                   /* set */
1178  NULL,                   /* len */
1179  NULL,                   /* clear */
1180  vmg_dispell_guard_free, /* free */
1181  NULL,                   /* copy */
1182 #if VMG_THREADSAFE
1183  vmg_dispell_guard_dup,  /* dup */
1184 #else
1185  NULL,                   /* dup */
1186 #endif
1187 #if MGf_LOCAL
1188  NULL,                   /* local */
1189 #endif /* MGf_LOCAL */
1190 };
1191
1192 static SV *vmg_dispell_guard_new(pTHX_ MAGIC *root) {
1193 #define vmg_dispell_guard_new(R) vmg_dispell_guard_new(aTHX_ (R))
1194  SV *guard;
1195
1196  guard = sv_newmortal();
1197  vmg_sv_magicext(guard, NULL, &vmg_dispell_guard_vtbl, root, 0);
1198
1199  return guard;
1200 }
1201
1202 static int vmg_cb_call(pTHX_ SV *cb, unsigned int flags, SV *sv, ...) {
1203  va_list ap;
1204  int ret = 0;
1205  unsigned int i, args, opinfo;
1206  MAGIC **chain = NULL;
1207  SV *svr;
1208
1209  dSP;
1210
1211  args    = flags & VMG_CB_CALL_ARGS_MASK;
1212  flags >>= VMG_CB_CALL_ARGS_SHIFT;
1213  opinfo  = flags & VMG_CB_CALL_OPINFO;
1214
1215  ENTER;
1216  SAVETMPS;
1217
1218  PUSHMARK(SP);
1219  EXTEND(SP, args + 1);
1220  PUSHs(sv_2mortal(newRV_inc(sv)));
1221  va_start(ap, sv);
1222  for (i = 0; i < args; ++i) {
1223   SV *sva = va_arg(ap, SV *);
1224   PUSHs(sva ? sva : &PL_sv_undef);
1225  }
1226  va_end(ap);
1227  if (opinfo)
1228   XPUSHs(vmg_op_info(opinfo));
1229  PUTBACK;
1230
1231  if (flags & VMG_CB_CALL_GUARD) {
1232   dMY_CXT;
1233   MY_CXT.depth++;
1234   vmg_call_sv(cb, G_SCALAR, vmg_dispell_guard_oncroak, NULL);
1235   MY_CXT.depth--;
1236   if (MY_CXT.depth == 0 && MY_CXT.freed_tokens)
1237    chain = &MY_CXT.freed_tokens;
1238  } else {
1239   vmg_call_sv(cb, G_SCALAR, 0, NULL);
1240  }
1241
1242  SPAGAIN;
1243  svr = POPs;
1244  if (SvOK(svr))
1245   ret = (int) SvIV(svr);
1246  PUTBACK;
1247
1248  FREETMPS;
1249  LEAVE;
1250
1251  if (chain) {
1252   vmg_dispell_guard_new(*chain);
1253   *chain = NULL;
1254  }
1255
1256  return ret;
1257 }
1258
1259 #define VMG_CB_FLAGS(OI, A) \
1260         ((((unsigned int) (OI)) << VMG_CB_CALL_ARGS_SHIFT) | (A))
1261
1262 #define vmg_cb_call1(I, OI, S, A1) \
1263         vmg_cb_call(aTHX_ (I), VMG_CB_FLAGS((OI), 1), (S), (A1))
1264 #define vmg_cb_call2(I, OI, S, A1, A2) \
1265         vmg_cb_call(aTHX_ (I), VMG_CB_FLAGS((OI), 2), (S), (A1), (A2))
1266 #define vmg_cb_call3(I, OI, S, A1, A2, A3) \
1267         vmg_cb_call(aTHX_ (I), VMG_CB_FLAGS((OI), 3), (S), (A1), (A2), (A3))
1268
1269 /* ... Default no-op magic callback ........................................ */
1270
1271 static int vmg_svt_default_noop(pTHX_ SV *sv, MAGIC *mg) {
1272  return 0;
1273 }
1274
1275 /* ... get magic ........................................................... */
1276
1277 static int vmg_svt_get(pTHX_ SV *sv, MAGIC *mg) {
1278  const vmg_wizard *w = vmg_wizard_from_mg_nocheck(mg);
1279
1280  return vmg_cb_call1(w->cb_get, w->opinfo, sv, mg->mg_obj);
1281 }
1282
1283 #define vmg_svt_get_noop vmg_svt_default_noop
1284
1285 /* ... set magic ........................................................... */
1286
1287 static int vmg_svt_set(pTHX_ SV *sv, MAGIC *mg) {
1288  const vmg_wizard *w = vmg_wizard_from_mg_nocheck(mg);
1289
1290  return vmg_cb_call1(w->cb_set, w->opinfo, sv, mg->mg_obj);
1291 }
1292
1293 #define vmg_svt_set_noop vmg_svt_default_noop
1294
1295 /* ... len magic ........................................................... */
1296
1297 static U32 vmg_sv_len(pTHX_ SV *sv) {
1298 #define vmg_sv_len(S) vmg_sv_len(aTHX_ (S))
1299  STRLEN len;
1300 #if VMG_HAS_PERL(5, 9, 3)
1301  const U8 *s = VOID2(const U8 *, VOID2(const void *, SvPV_const(sv, len)));
1302 #else
1303  U8 *s = SvPV(sv, len);
1304 #endif
1305
1306  return DO_UTF8(sv) ? utf8_length(s, s + len) : len;
1307 }
1308
1309 static U32 vmg_svt_len(pTHX_ SV *sv, MAGIC *mg) {
1310  const vmg_wizard *w = vmg_wizard_from_mg_nocheck(mg);
1311  unsigned int opinfo = w->opinfo;
1312  U32 len, ret;
1313  SV *svr;
1314  svtype t = SvTYPE(sv);
1315
1316  dSP;
1317
1318  ENTER;
1319  SAVETMPS;
1320
1321  PUSHMARK(SP);
1322  EXTEND(SP, 3);
1323  PUSHs(sv_2mortal(newRV_inc(sv)));
1324  PUSHs(mg->mg_obj ? mg->mg_obj : &PL_sv_undef);
1325  if (t < SVt_PVAV) {
1326   len = vmg_sv_len(sv);
1327   mPUSHu(len);
1328  } else if (t == SVt_PVAV) {
1329   len = av_len((AV *) sv) + 1;
1330   mPUSHu(len);
1331  } else {
1332   len = 0;
1333   PUSHs(&PL_sv_undef);
1334  }
1335  if (opinfo)
1336   XPUSHs(vmg_op_info(opinfo));
1337  PUTBACK;
1338
1339  vmg_call_sv(w->cb_len, G_SCALAR, 0, NULL);
1340
1341  SPAGAIN;
1342  svr = POPs;
1343  ret = SvOK(svr) ? (U32) SvUV(svr) : len;
1344  if (t == SVt_PVAV)
1345   --ret;
1346  PUTBACK;
1347
1348  FREETMPS;
1349  LEAVE;
1350
1351  return ret;
1352 }
1353
1354 static U32 vmg_svt_len_noop(pTHX_ SV *sv, MAGIC *mg) {
1355  U32    len = 0;
1356  svtype t   = SvTYPE(sv);
1357
1358  if (t < SVt_PVAV) {
1359   len = vmg_sv_len(sv);
1360  } else if (t == SVt_PVAV) {
1361   len = (U32) av_len((AV *) sv);
1362  }
1363
1364  return len;
1365 }
1366
1367 /* ... clear magic ......................................................... */
1368
1369 static int vmg_svt_clear(pTHX_ SV *sv, MAGIC *mg) {
1370  const vmg_wizard *w = vmg_wizard_from_mg_nocheck(mg);
1371  unsigned int flags  = w->opinfo;
1372
1373 #if !VMG_HAS_PERL(5, 12, 0)
1374  flags |= VMG_CB_CALL_GUARD;
1375 #endif
1376
1377  return vmg_cb_call1(w->cb_clear, flags, sv, mg->mg_obj);
1378 }
1379
1380 #define vmg_svt_clear_noop vmg_svt_default_noop
1381
1382 /* ... free magic .......................................................... */
1383
1384 #if VMG_PROPAGATE_ERRSV_NEEDS_TRAMPOLINE
1385
1386 static OP *vmg_pp_propagate_errsv(pTHX) {
1387  SVOP *o = cSVOPx(PL_op);
1388
1389  if (o->op_sv) {
1390   sv_setsv(ERRSV, o->op_sv);
1391   SvREFCNT_dec(o->op_sv);
1392   o->op_sv = NULL;
1393  }
1394
1395  return NORMAL;
1396 }
1397
1398 #endif /* VMG_PROPAGATE_ERRSV_NEEDS_TRAMPOLINE */
1399
1400 static int vmg_propagate_errsv_free(pTHX_ SV *sv, MAGIC *mg) {
1401  if (mg->mg_obj)
1402   sv_setsv(ERRSV, mg->mg_obj);
1403
1404  return 0;
1405 }
1406
1407 /* perl is already kind enough to handle the cloning of the mg_obj member,
1408    hence we don't need to define a dup magic callback. */
1409
1410 static MGVTBL vmg_propagate_errsv_vtbl = {
1411  0,                        /* get */
1412  0,                        /* set */
1413  0,                        /* len */
1414  0,                        /* clear */
1415  vmg_propagate_errsv_free, /* free */
1416  0,                        /* copy */
1417  0,                        /* dup */
1418 #if MGf_LOCAL
1419  0,                        /* local */
1420 #endif /* MGf_LOCAL */
1421 };
1422
1423 typedef struct {
1424  SV  *sv;
1425  int  in_eval;
1426  I32  base;
1427 } vmg_svt_free_cleanup_ud;
1428
1429 static int vmg_svt_free_cleanup(pTHX_ void *ud_) {
1430  vmg_svt_free_cleanup_ud *ud = VOID2(vmg_svt_free_cleanup_ud *, ud_);
1431
1432  if (ud->in_eval) {
1433   U32 optype = PL_op ? PL_op->op_type : OP_NULL;
1434
1435   if (optype == OP_LEAVETRY || optype == OP_LEAVEEVAL) {
1436    SV *errsv = newSVsv(ERRSV);
1437
1438    FREETMPS;
1439    LEAVE_SCOPE(ud->base);
1440
1441 #if VMG_PROPAGATE_ERRSV_NEEDS_TRAMPOLINE
1442    if (optype == OP_LEAVETRY) {
1443     dMY_CXT;
1444     PL_op = vmg_trampoline_bump(&MY_CXT.propagate_errsv, errsv, PL_op);
1445    } else if (optype == OP_LEAVEEVAL) {
1446     SV *guard = sv_newmortal();
1447     vmg_sv_magicext(guard, errsv, &vmg_propagate_errsv_vtbl, NULL, 0);
1448    }
1449 #else /* !VMG_PROPAGATE_ERRSV_NEEDS_TRAMPOLINE */
1450 # if !VMG_HAS_PERL(5, 8, 9)
1451    {
1452     SV *guard = sv_newmortal();
1453     vmg_sv_magicext(guard, errsv, &vmg_propagate_errsv_vtbl, NULL, 0);
1454    }
1455 # else
1456    vmg_sv_magicext(ERRSV, errsv, &vmg_propagate_errsv_vtbl, NULL, 0);
1457 # endif
1458 #endif /* VMG_PROPAGATE_ERRSV_NEEDS_TRAMPOLINE */
1459
1460    SAVETMPS;
1461   }
1462
1463   /* Don't propagate */
1464   return 0;
1465  } else {
1466   SV    *sv = ud->sv;
1467   MAGIC *mg;
1468
1469   /* We are about to croak() while sv is being destroyed. Try to clean up
1470    * things a bit. */
1471   mg = SvMAGIC(sv);
1472   if (mg) {
1473    vmg_mg_del(sv, NULL, mg, mg->mg_moremagic);
1474    mg_magical(sv);
1475   }
1476   SvREFCNT_dec(sv);
1477
1478   vmg_dispell_guard_oncroak(aTHX_ NULL);
1479
1480   /* After that, propagate the error upwards. */
1481   return 1;
1482  }
1483 }
1484
1485 static int vmg_svt_free(pTHX_ SV *sv, MAGIC *mg) {
1486  vmg_svt_free_cleanup_ud ud;
1487  const vmg_wizard *w;
1488  int ret = 0;
1489  SV *svr;
1490
1491  dSP;
1492
1493  /* During global destruction, we cannot be sure that the wizard and its free
1494   * callback are still alive. */
1495  if (PL_dirty)
1496   return 0;
1497
1498  w = vmg_wizard_from_mg_nocheck(mg);
1499
1500  /* So that it survives the temp cleanup below */
1501  SvREFCNT_inc_simple_void(sv);
1502
1503 #if !(VMG_HAS_PERL_MAINT(5, 11, 0, 32686) || VMG_HAS_PERL(5, 12, 0))
1504  /* The previous magic tokens were freed but the magic chain wasn't updated, so
1505   * if you access the sv from the callback the old deleted magics will trigger
1506   * and cause memory misreads. Change 32686 solved it that way : */
1507  SvMAGIC_set(sv, mg);
1508 #endif
1509
1510  ud.sv = sv;
1511  if (cxstack_ix < cxstack_max) {
1512   ud.in_eval = (CxTYPE(cxstack + cxstack_ix + 1) == CXt_EVAL);
1513   ud.base    = ud.in_eval ? PL_scopestack[PL_scopestack_ix] : 0;
1514  } else {
1515   ud.in_eval = 0;
1516   ud.base    = 0;
1517  }
1518
1519  ENTER;
1520  SAVETMPS;
1521
1522  PUSHMARK(SP);
1523  EXTEND(SP, 2);
1524  PUSHs(sv_2mortal(newRV_inc(sv)));
1525  PUSHs(mg->mg_obj ? mg->mg_obj : &PL_sv_undef);
1526  if (w->opinfo)
1527   XPUSHs(vmg_op_info(w->opinfo));
1528  PUTBACK;
1529
1530  {
1531   dMY_CXT;
1532   MY_CXT.depth++;
1533   vmg_call_sv(w->cb_free, G_SCALAR, vmg_svt_free_cleanup, &ud);
1534   MY_CXT.depth--;
1535   if (MY_CXT.depth == 0 && MY_CXT.freed_tokens) {
1536    /* Free all the tokens in the chain but the current one (if it's present).
1537     * It will be taken care of by our caller, Perl_mg_free(). */
1538    vmg_magic_chain_free(MY_CXT.freed_tokens, mg);
1539    MY_CXT.freed_tokens = NULL;
1540   }
1541  }
1542
1543  SPAGAIN;
1544  svr = POPs;
1545  if (SvOK(svr))
1546   ret = (int) SvIV(svr);
1547  PUTBACK;
1548
1549  FREETMPS;
1550  LEAVE;
1551
1552  /* Calling SvREFCNT_dec() will trigger destructors in an infinite loop, so
1553   * we have to rely on SvREFCNT() being a lvalue. Heck, even the core does it */
1554  --SvREFCNT(sv);
1555
1556  /* Perl_mg_free will get rid of the magic and decrement mg->mg_obj and
1557   * mg->mg_ptr reference count */
1558  return ret;
1559 }
1560
1561 #define vmg_svt_free_noop vmg_svt_default_noop
1562
1563 #if VMG_HAS_PERL_MAINT(5, 11, 0, 33256) || VMG_HAS_PERL(5, 12, 0)
1564 # define VMG_SVT_COPY_KEYLEN_TYPE I32
1565 #else
1566 # define VMG_SVT_COPY_KEYLEN_TYPE int
1567 #endif
1568
1569 /* ... copy magic .......................................................... */
1570
1571 static int vmg_svt_copy(pTHX_ SV *sv, MAGIC *mg, SV *nsv, const char *key, VMG_SVT_COPY_KEYLEN_TYPE keylen) {
1572  const vmg_wizard *w = vmg_wizard_from_mg_nocheck(mg);
1573  SV *keysv;
1574  int ret;
1575
1576  if (keylen == HEf_SVKEY) {
1577   keysv = (SV *) key;
1578  } else {
1579   keysv = newSVpvn(key, keylen);
1580  }
1581
1582  if (SvTYPE(sv) >= SVt_PVCV)
1583   nsv = sv_2mortal(newRV_inc(nsv));
1584
1585  ret = vmg_cb_call3(w->cb_copy, w->opinfo, sv, mg->mg_obj, keysv, nsv);
1586
1587  if (keylen != HEf_SVKEY) {
1588   SvREFCNT_dec(keysv);
1589  }
1590
1591  return ret;
1592 }
1593
1594 static int vmg_svt_copy_noop(pTHX_ SV *sv, MAGIC *mg, SV *nsv, const char *key, VMG_SVT_COPY_KEYLEN_TYPE keylen) {
1595  return 0;
1596 }
1597
1598 /* ... dup magic ........................................................... */
1599
1600 #if 0
1601 static int vmg_svt_dup(pTHX_ MAGIC *mg, CLONE_PARAMS *param) {
1602  return 0;
1603 }
1604 #define vmg_svt_dup_noop vmg_svt_dup
1605 #endif
1606
1607 /* ... local magic ......................................................... */
1608
1609 #if MGf_LOCAL
1610
1611 static int vmg_svt_local(pTHX_ SV *nsv, MAGIC *mg) {
1612  const vmg_wizard *w = vmg_wizard_from_mg_nocheck(mg);
1613
1614  return vmg_cb_call1(w->cb_local, w->opinfo, nsv, mg->mg_obj);
1615 }
1616
1617 #define vmg_svt_local_noop vmg_svt_default_noop
1618
1619 #endif /* MGf_LOCAL */
1620
1621 /* ... uvar magic .......................................................... */
1622
1623 #if VMG_UVAR
1624
1625 static OP *vmg_pp_reset_rmg(pTHX) {
1626  SVOP *o = cSVOPx(PL_op);
1627
1628  SvRMAGICAL_on(o->op_sv);
1629  o->op_sv = NULL;
1630
1631  return NORMAL;
1632 }
1633
1634 static I32 vmg_svt_val(pTHX_ IV action, SV *sv) {
1635  vmg_uvar_ud *ud;
1636  MAGIC *mg, *umg, *moremagic;
1637  SV *key = NULL, *newkey = NULL;
1638  int tied = 0;
1639
1640  umg = mg_find(sv, PERL_MAGIC_uvar);
1641  /* umg can't be NULL or we wouldn't be there. */
1642  key = umg->mg_obj;
1643  ud  = (vmg_uvar_ud *) umg->mg_ptr;
1644
1645  if (ud->old_uf.uf_val)
1646   ud->old_uf.uf_val(aTHX_ action, sv);
1647  if (ud->old_uf.uf_set)
1648   ud->old_uf.uf_set(aTHX_ action, sv);
1649
1650  for (mg = SvMAGIC(sv); mg; mg = moremagic) {
1651   const vmg_wizard *w;
1652
1653   /* mg may be freed later by the uvar call, so we need to fetch the next
1654    * token before reaching that fateful point. */
1655   moremagic = mg->mg_moremagic;
1656
1657   switch (mg->mg_type) {
1658    case PERL_MAGIC_ext:
1659     break;
1660    case PERL_MAGIC_tied:
1661     ++tied;
1662     continue;
1663    default:
1664     continue;
1665   }
1666
1667   w = vmg_wizard_from_mg(mg);
1668   if (!w)
1669    continue;
1670
1671   switch (w->uvar) {
1672    case 0:
1673     continue;
1674    case 2:
1675     if (!newkey)
1676      newkey = key = umg->mg_obj = sv_mortalcopy(umg->mg_obj);
1677   }
1678
1679   switch (action
1680              & (HV_FETCH_ISSTORE|HV_FETCH_ISEXISTS|HV_FETCH_LVALUE|HV_DELETE)) {
1681    case 0:
1682     if (w->cb_fetch)
1683      vmg_cb_call2(w->cb_fetch, w->opinfo | VMG_CB_CALL_GUARD, sv,
1684                                mg->mg_obj, key);
1685     break;
1686    case HV_FETCH_ISSTORE:
1687    case HV_FETCH_LVALUE:
1688    case (HV_FETCH_ISSTORE|HV_FETCH_LVALUE):
1689     if (w->cb_store)
1690      vmg_cb_call2(w->cb_store, w->opinfo | VMG_CB_CALL_GUARD, sv,
1691                                mg->mg_obj, key);
1692     break;
1693    case HV_FETCH_ISEXISTS:
1694     if (w->cb_exists)
1695      vmg_cb_call2(w->cb_exists, w->opinfo | VMG_CB_CALL_GUARD, sv,
1696                                 mg->mg_obj, key);
1697     break;
1698    case HV_DELETE:
1699     if (w->cb_delete)
1700      vmg_cb_call2(w->cb_delete, w->opinfo | VMG_CB_CALL_GUARD, sv,
1701                                 mg->mg_obj, key);
1702     break;
1703   }
1704  }
1705
1706  if (SvRMAGICAL(sv) && !tied && !(action & (HV_FETCH_ISSTORE|HV_DELETE))) {
1707   /* Temporarily hide the RMAGICAL flag of the hash so it isn't wrongly
1708    * mistaken for a tied hash by the rest of hv_common. It will be reset by
1709    * the op_ppaddr of a new fake op injected between the current and the next
1710    * one. */
1711
1712 #if VMG_RESET_RMG_NEEDS_TRAMPOLINE
1713
1714   dMY_CXT;
1715
1716   PL_op = vmg_trampoline_bump(&MY_CXT.reset_rmg, sv, PL_op);
1717
1718 #else /* !VMG_RESET_RMG_NEEDS_TRAMPOLINE */
1719
1720   OP   *nop  = PL_op->op_next;
1721   SVOP *svop = NULL;
1722
1723   if (nop && nop->op_ppaddr == vmg_pp_reset_rmg) {
1724    svop = (SVOP *) nop;
1725   } else {
1726    NewOp(1101, svop, 1, SVOP);
1727    svop->op_type    = OP_STUB;
1728    svop->op_ppaddr  = vmg_pp_reset_rmg;
1729    svop->op_next    = nop;
1730    svop->op_flags   = 0;
1731    svop->op_private = 0;
1732
1733    PL_op->op_next = (OP *) svop;
1734   }
1735
1736   svop->op_sv = sv;
1737
1738 #endif /* VMG_RESET_RMG_NEEDS_TRAMPOLINE */
1739
1740   SvRMAGICAL_off(sv);
1741  }
1742
1743  return 0;
1744 }
1745
1746 #endif /* VMG_UVAR */
1747
1748 /* --- Module setup/teardown ----------------------------------------------- */
1749
1750 #if VMG_THREADSAFE
1751
1752 static I32 vmg_loaded = 0;
1753
1754 /* We must use preexistent global mutexes or we will never be able to destroy
1755  * them. */
1756 # if VMG_HAS_PERL(5, 9, 3)
1757 #  define VMG_LOADED_LOCK   MUTEX_LOCK(&PL_my_ctx_mutex)
1758 #  define VMG_LOADED_UNLOCK MUTEX_UNLOCK(&PL_my_ctx_mutex)
1759 # else
1760 #  define VMG_LOADED_LOCK   OP_REFCNT_LOCK
1761 #  define VMG_LOADED_UNLOCK OP_REFCNT_UNLOCK
1762 # endif
1763
1764 static void vmg_global_teardown_late_locked(pTHX) {
1765 #define vmg_global_teardown_late_locked() vmg_global_teardown_late_locked(aTHX)
1766  MUTEX_DESTROY(&vmg_op_name_init_mutex);
1767  MUTEX_DESTROY(&vmg_vtable_refcount_mutex);
1768
1769  return;
1770 }
1771
1772 static int vmg_global_teardown_free(pTHX_ SV *sv, MAGIC *mg) {
1773  VMG_LOADED_LOCK;
1774
1775  if (vmg_loaded == 0)
1776   vmg_global_teardown_late_locked();
1777
1778  VMG_LOADED_UNLOCK;
1779
1780  return 0;
1781 }
1782
1783 static MGVTBL vmg_global_teardown_vtbl = {
1784  0,
1785  0,
1786  0,
1787  0,
1788  vmg_global_teardown_free
1789 #if MGf_COPY
1790  , 0
1791 #endif
1792 #if MGf_DUP
1793  , 0
1794 #endif
1795 #if MGf_LOCAL
1796  , 0
1797 #endif
1798 };
1799
1800 static signed char vmg_destruct_level(pTHX) {
1801 #define vmg_destruct_level() vmg_destruct_level(aTHX)
1802  signed char lvl;
1803
1804  lvl = PL_perl_destruct_level;
1805
1806 #ifdef DEBUGGING
1807  {
1808   const char *s = PerlEnv_getenv("PERL_DESTRUCT_LEVEL");
1809   if (s) {
1810    int i;
1811 #if VMG_HAS_PERL(5, 21, 3)
1812    if (strEQ(s, "-1")) {
1813     i = -1;
1814    } else {
1815 # if VMG_HAS_PERL(5, 21, 10)
1816     UV uv;
1817     if (Perl_grok_atoUV(s, &uv, NULL) && uv <= INT_MAX)
1818      i = (int) uv;
1819     else
1820      i = 0;
1821 # else /* VMG_HAS_PERL(5, 21, 3) && !VMG_HAS_PERL(5, 21, 10) */
1822     i = Perl_grok_atou(s, NULL);
1823 # endif
1824    }
1825 #else /* !VMG_HAS_PERL(5, 21, 3) */
1826    i = atoi(s);
1827 #endif
1828    if (lvl < i)
1829     lvl = i;
1830   }
1831  }
1832 #endif
1833
1834  return lvl;
1835 }
1836
1837 #endif /* VMG_THREADSAFE */
1838
1839 static void vmg_teardown(pTHX_ void *interp) {
1840  dMY_CXT;
1841
1842 #if VMG_MULTIPLICITY
1843  if (aTHX != interp)
1844   return;
1845 #endif
1846
1847 #if VMG_THREADSAFE
1848  VMG_LOADED_LOCK;
1849
1850  if (vmg_loaded == 1) {
1851   vmg_loaded = 0;
1852   if (vmg_destruct_level() == 0) {
1853    vmg_global_teardown_late_locked();
1854   } else {
1855    if (!PL_strtab)
1856     PL_strtab = newHV();
1857    vmg_sv_magicext((SV *) PL_strtab, NULL, &vmg_global_teardown_vtbl, NULL, 0);
1858   }
1859  } else {
1860   assert(vmg_loaded > 1);
1861   --vmg_loaded;
1862  }
1863
1864  VMG_LOADED_UNLOCK;
1865 #endif
1866
1867  if (MY_CXT.depth == 0 && MY_CXT.freed_tokens) {
1868   vmg_magic_chain_free(MY_CXT.freed_tokens, NULL);
1869   MY_CXT.freed_tokens = NULL;
1870  }
1871
1872  return;
1873 }
1874
1875 static void vmg_setup(pTHX) {
1876 #define vmg_setup() vmg_setup(aTHX)
1877  HV *stash;
1878  int c;
1879  MY_CXT_INIT;
1880
1881 #if VMG_THREADSAFE
1882  VMG_LOADED_LOCK;
1883
1884  if (vmg_loaded <= 0) {
1885   assert(vmg_loaded == 0);
1886   MUTEX_INIT(&vmg_vtable_refcount_mutex);
1887   MUTEX_INIT(&vmg_op_name_init_mutex);
1888  }
1889  ++vmg_loaded;
1890
1891  VMG_LOADED_UNLOCK;
1892 #endif
1893
1894  for (c = OPc_NULL; c < OPc_MAX; ++c)
1895   MY_CXT.b__op_stashes[c] = NULL;
1896
1897  MY_CXT.depth        = 0;
1898  MY_CXT.freed_tokens = NULL;
1899
1900 #if VMG_PROPAGATE_ERRSV_NEEDS_TRAMPOLINE
1901  vmg_trampoline_init(&MY_CXT.propagate_errsv, vmg_pp_propagate_errsv);
1902 #endif
1903 #if VMG_RESET_RMG_NEEDS_TRAMPOLINE
1904  vmg_trampoline_init(&MY_CXT.reset_rmg, vmg_pp_reset_rmg);
1905 #endif
1906
1907  stash = gv_stashpv(__PACKAGE__, 1);
1908  newCONSTSUB(stash, "MGf_COPY",  newSVuv(MGf_COPY));
1909  newCONSTSUB(stash, "MGf_DUP",   newSVuv(MGf_DUP));
1910  newCONSTSUB(stash, "MGf_LOCAL", newSVuv(MGf_LOCAL));
1911  newCONSTSUB(stash, "VMG_UVAR",  newSVuv(VMG_UVAR));
1912  newCONSTSUB(stash, "VMG_COMPAT_SCALAR_LENGTH_NOLEN",
1913                     newSVuv(VMG_COMPAT_SCALAR_LENGTH_NOLEN));
1914  newCONSTSUB(stash, "VMG_COMPAT_SCALAR_NOLEN",
1915                     newSVuv(VMG_COMPAT_SCALAR_NOLEN));
1916  newCONSTSUB(stash, "VMG_COMPAT_ARRAY_PUSH_NOLEN",
1917                     newSVuv(VMG_COMPAT_ARRAY_PUSH_NOLEN));
1918  newCONSTSUB(stash, "VMG_COMPAT_ARRAY_PUSH_NOLEN_VOID",
1919                     newSVuv(VMG_COMPAT_ARRAY_PUSH_NOLEN_VOID));
1920  newCONSTSUB(stash, "VMG_COMPAT_ARRAY_UNSHIFT_NOLEN_VOID",
1921                     newSVuv(VMG_COMPAT_ARRAY_UNSHIFT_NOLEN_VOID));
1922  newCONSTSUB(stash, "VMG_COMPAT_ARRAY_UNDEF_CLEAR",
1923                     newSVuv(VMG_COMPAT_ARRAY_UNDEF_CLEAR));
1924  newCONSTSUB(stash, "VMG_COMPAT_HASH_DELETE_NOUVAR_VOID",
1925                     newSVuv(VMG_COMPAT_HASH_DELETE_NOUVAR_VOID));
1926  newCONSTSUB(stash, "VMG_COMPAT_CODE_COPY_CLONE",
1927                     newSVuv(VMG_COMPAT_CODE_COPY_CLONE));
1928  newCONSTSUB(stash, "VMG_COMPAT_GLOB_GET", newSVuv(VMG_COMPAT_GLOB_GET));
1929  newCONSTSUB(stash, "VMG_PERL_PATCHLEVEL", newSVuv(VMG_PERL_PATCHLEVEL));
1930  newCONSTSUB(stash, "VMG_THREADSAFE",      newSVuv(VMG_THREADSAFE));
1931  newCONSTSUB(stash, "VMG_FORKSAFE",        newSVuv(VMG_FORKSAFE));
1932  newCONSTSUB(stash, "VMG_OP_INFO_NAME",    newSVuv(VMG_OP_INFO_NAME));
1933  newCONSTSUB(stash, "VMG_OP_INFO_OBJECT",  newSVuv(VMG_OP_INFO_OBJECT));
1934
1935 #if VMG_MULTIPLICITY
1936  call_atexit(vmg_teardown, aTHX);
1937 #else
1938  call_atexit(vmg_teardown, NULL);
1939 #endif
1940
1941  return;
1942 }
1943
1944 /* --- Macros for the XS section ------------------------------------------- */
1945
1946 #ifdef CvISXSUB
1947 # define VMG_CVOK(C) \
1948    ((CvISXSUB(C) ? (void *) CvXSUB(C) : (void *) CvROOT(C)) ? 1 : 0)
1949 #else
1950 # define VMG_CVOK(C) (CvROOT(C) || CvXSUB(C))
1951 #endif
1952
1953 #define VMG_CBOK(S) ((SvTYPE(S) == SVt_PVCV) ? VMG_CVOK(S) : SvOK(S))
1954
1955 #define VMG_SET_CB(S, N) {       \
1956  SV *cb = (S);                   \
1957  if (SvOK(cb) && SvROK(cb)) {    \
1958   cb = SvRV(cb);                 \
1959   if (VMG_CBOK(cb))              \
1960    SvREFCNT_inc_simple_void(cb); \
1961   else                           \
1962    cb = NULL;                    \
1963  } else {                        \
1964   cb = NULL;                     \
1965  }                               \
1966  w->cb_ ## N = cb;               \
1967 }
1968
1969 #define VMG_SET_SVT_CB(S, N) {   \
1970  SV *cb = (S);                   \
1971  if (SvOK(cb) && SvROK(cb)) {    \
1972   cb = SvRV(cb);                 \
1973   if (VMG_CBOK(cb)) {            \
1974    t->svt_ ## N = vmg_svt_ ## N; \
1975    SvREFCNT_inc_simple_void(cb); \
1976   } else {                       \
1977    t->svt_ ## N = vmg_svt_ ## N ## _noop; \
1978    cb           = NULL;          \
1979   }                              \
1980  } else {                        \
1981   t->svt_ ## N = NULL;           \
1982   cb           = NULL;           \
1983  }                               \
1984  w->cb_ ## N = cb;               \
1985 }
1986
1987 /* --- XS ------------------------------------------------------------------ */
1988
1989 MODULE = Variable::Magic            PACKAGE = Variable::Magic
1990
1991 PROTOTYPES: ENABLE
1992
1993 BOOT:
1994 {
1995  vmg_setup();
1996 }
1997
1998 #if VMG_THREADSAFE
1999
2000 void
2001 CLONE(...)
2002 PROTOTYPE: DISABLE
2003 PREINIT:
2004  U32 had_b__op_stash = 0;
2005  I32 old_depth;
2006  int c;
2007 PPCODE:
2008  {
2009   dMY_CXT;
2010   for (c = OPc_NULL; c < OPc_MAX; ++c) {
2011    if (MY_CXT.b__op_stashes[c])
2012     had_b__op_stash |= (((U32) 1) << c);
2013   }
2014   old_depth = MY_CXT.depth;
2015  }
2016  {
2017   MY_CXT_CLONE;
2018   for (c = OPc_NULL; c < OPc_MAX; ++c) {
2019    MY_CXT.b__op_stashes[c] = (had_b__op_stash & (((U32) 1) << c))
2020                               ? gv_stashpv(vmg_opclassnames[c], 1) : NULL;
2021   }
2022   MY_CXT.depth        = old_depth;
2023   MY_CXT.freed_tokens = NULL;
2024   VMG_LOADED_LOCK;
2025   assert(vmg_loaded > 0);
2026   ++vmg_loaded;
2027   VMG_LOADED_UNLOCK;
2028  }
2029  XSRETURN(0);
2030
2031 #endif /* VMG_THREADSAFE */
2032
2033 SV *_wizard(...)
2034 PROTOTYPE: DISABLE
2035 PREINIT:
2036  vmg_wizard *w;
2037  MGVTBL *t;
2038  SV *op_info, *copy_key;
2039  I32 i = 0;
2040 CODE:
2041  if (items != 9
2042 #if MGf_LOCAL
2043               + 1
2044 #endif /* MGf_LOCAL */
2045 #if VMG_UVAR
2046               + 5
2047 #endif /* VMG_UVAR */
2048               ) { croak(vmg_wrongargnum); }
2049
2050  op_info = ST(i++);
2051  w = vmg_wizard_alloc(SvOK(op_info) ? SvUV(op_info) : 0);
2052  t = vmg_vtable_vtbl(w->vtable);
2053
2054  VMG_SET_CB(ST(i++), data);
2055
2056  VMG_SET_SVT_CB(ST(i++), get);
2057  VMG_SET_SVT_CB(ST(i++), set);
2058  VMG_SET_SVT_CB(ST(i++), len);
2059  VMG_SET_SVT_CB(ST(i++), clear);
2060  VMG_SET_SVT_CB(ST(i++), free);
2061  VMG_SET_SVT_CB(ST(i++), copy);
2062  /* VMG_SET_SVT_CB(ST(i++), dup); */
2063  i++;
2064  t->svt_dup = NULL;
2065  w->cb_dup  = NULL;
2066 #if MGf_LOCAL
2067  VMG_SET_SVT_CB(ST(i++), local);
2068 #endif /* MGf_LOCAL */
2069 #if VMG_UVAR
2070  VMG_SET_CB(ST(i++), fetch);
2071  VMG_SET_CB(ST(i++), store);
2072  VMG_SET_CB(ST(i++), exists);
2073  VMG_SET_CB(ST(i++), delete);
2074
2075  copy_key = ST(i++);
2076  if (w->cb_fetch || w->cb_store || w->cb_exists || w->cb_delete)
2077   w->uvar = SvTRUE(copy_key) ? 2 : 1;
2078 #endif /* VMG_UVAR */
2079
2080  RETVAL = newRV_noinc(vmg_wizard_sv_new(w));
2081 OUTPUT:
2082  RETVAL
2083
2084 SV *cast(SV *sv, SV *wiz, ...)
2085 PROTOTYPE: \[$@%&*]$@
2086 PREINIT:
2087  const vmg_wizard *w = NULL;
2088  SV **args = NULL;
2089  I32 i = 0;
2090 CODE:
2091  if (items > 2) {
2092   i = items - 2;
2093   args = &ST(2);
2094  }
2095  if (SvROK(wiz)) {
2096   wiz = SvRV_const(wiz);
2097   w   = vmg_wizard_from_sv(wiz);
2098  }
2099  if (!w)
2100   croak(vmg_invalid_wiz);
2101  RETVAL = newSVuv(vmg_cast(SvRV(sv), w, wiz, args, i));
2102 OUTPUT:
2103  RETVAL
2104
2105 void
2106 getdata(SV *sv, SV *wiz)
2107 PROTOTYPE: \[$@%&*]$
2108 PREINIT:
2109  const vmg_wizard *w = NULL;
2110  SV *data;
2111 PPCODE:
2112  if (SvROK(wiz))
2113   w = vmg_wizard_from_sv(SvRV_const(wiz));
2114  if (!w)
2115   croak(vmg_invalid_wiz);
2116  data = vmg_data_get(SvRV(sv), w);
2117  if (!data)
2118   XSRETURN_EMPTY;
2119  ST(0) = data;
2120  XSRETURN(1);
2121
2122 SV *dispell(SV *sv, SV *wiz)
2123 PROTOTYPE: \[$@%&*]$
2124 PREINIT:
2125  const vmg_wizard *w = NULL;
2126 CODE:
2127  if (SvROK(wiz))
2128   w = vmg_wizard_from_sv(SvRV_const(wiz));
2129  if (!w)
2130   croak(vmg_invalid_wiz);
2131  RETVAL = newSVuv(vmg_dispell(SvRV(sv), w));
2132 OUTPUT:
2133  RETVAL