]> git.vpit.fr Git - perl/modules/Variable-Magic.git/blob - Magic.xs
d579f9ee0e0f4ed31666cc4f9ba9f17add425c0a
[perl/modules/Variable-Magic.git] / Magic.xs
1 /* This file is part of the Variable::Magic Perl module.
2  * See http://search.cpan.org/dist/Variable-Magic/ */
3
4 #include <stdarg.h> /* <va_list>, va_{start,arg,end}, ... */
5
6 #include <stdio.h>  /* sprintf() */
7
8 #define PERL_NO_GET_CONTEXT
9 #include "EXTERN.h"
10 #include "perl.h"
11 #include "XSUB.h"
12
13 #define __PACKAGE__ "Variable::Magic"
14
15 #undef VOID2
16 #ifdef __cplusplus
17 # define VOID2(T, P) static_cast<T>(P)
18 #else
19 # define VOID2(T, P) (P)
20 #endif
21
22 #ifndef VMG_PERL_PATCHLEVEL
23 # ifdef PERL_PATCHNUM
24 #  define VMG_PERL_PATCHLEVEL PERL_PATCHNUM
25 # else
26 #  define VMG_PERL_PATCHLEVEL 0
27 # endif
28 #endif
29
30 #define VMG_HAS_PERL(R, V, S) (PERL_REVISION > (R) || (PERL_REVISION == (R) && (PERL_VERSION > (V) || (PERL_VERSION == (V) && (PERL_SUBVERSION >= (S))))))
31
32 #define VMG_HAS_PERL_BRANCH(R, V, S) (PERL_REVISION == (R) && PERL_VERSION == (V) && PERL_SUBVERSION >= (S))
33
34 #define VMG_HAS_PERL_MAINT(R, V, S, P) (PERL_REVISION == (R) && PERL_VERSION == (V) && (VMG_PERL_PATCHLEVEL >= (P) || (!VMG_PERL_PATCHLEVEL && PERL_SUBVERSION >= (S))))
35
36 /* --- Threads and multiplicity -------------------------------------------- */
37
38 #ifndef NOOP
39 # define NOOP
40 #endif
41
42 #ifndef dNOOP
43 # define dNOOP
44 #endif
45
46 /* Safe unless stated otherwise in Makefile.PL */
47 #ifndef VMG_FORKSAFE
48 # define VMG_FORKSAFE 1
49 #endif
50
51 #ifndef VMG_MULTIPLICITY
52 # if defined(MULTIPLICITY)
53 #  define VMG_MULTIPLICITY 1
54 # else
55 #  define VMG_MULTIPLICITY 0
56 # endif
57 #endif
58 #if VMG_MULTIPLICITY
59 # ifndef PERL_IMPLICIT_CONTEXT
60 #  error MULTIPLICITY builds must set PERL_IMPLICIT_CONTEXT
61 # endif
62 #endif
63
64 #if VMG_MULTIPLICITY && defined(USE_ITHREADS) && defined(dMY_CXT) && defined(MY_CXT) && defined(START_MY_CXT) && defined(MY_CXT_INIT) && (defined(MY_CXT_CLONE) || defined(dMY_CXT_SV))
65 # ifndef VMG_THREADSAFE
66 #  define VMG_THREADSAFE 1
67 # endif
68 # ifndef MY_CXT_CLONE
69 #  define MY_CXT_CLONE \
70     dMY_CXT_SV;                                                      \
71     my_cxt_t *my_cxtp = (my_cxt_t*)SvPVX(newSV(sizeof(my_cxt_t)-1)); \
72     Copy(INT2PTR(my_cxt_t*, SvUV(my_cxt_sv)), my_cxtp, 1, my_cxt_t); \
73     sv_setuv(my_cxt_sv, PTR2UV(my_cxtp))
74 # endif
75 #else
76 # undef  VMG_THREADSAFE
77 # define VMG_THREADSAFE 0
78 # undef  dMY_CXT
79 # define dMY_CXT      dNOOP
80 # undef  MY_CXT
81 # define MY_CXT       vmg_globaldata
82 # undef  START_MY_CXT
83 # define START_MY_CXT STATIC my_cxt_t MY_CXT;
84 # undef  MY_CXT_INIT
85 # define MY_CXT_INIT  NOOP
86 # undef  MY_CXT_CLONE
87 # define MY_CXT_CLONE NOOP
88 #endif
89
90 #if VMG_THREADSAFE
91 # define VMG_LOCK(M)   MUTEX_LOCK(M)
92 # define VMG_UNLOCK(M) MUTEX_UNLOCK(M)
93 #else
94 # define VMG_LOCK(M)
95 # define VMG_UNLOCK(M)
96 #endif
97
98 /* --- Compatibility ------------------------------------------------------- */
99
100 #ifndef Newx
101 # define Newx(v, n, c) New(0, v, n, c)
102 #endif
103
104 #ifndef SvMAGIC_set
105 # define SvMAGIC_set(sv, val) (SvMAGIC(sv) = (val))
106 #endif
107
108 #ifndef SvRV_const
109 # define SvRV_const(sv) SvRV((SV *) sv)
110 #endif
111
112 #ifndef SvREFCNT_inc_simple_void
113 # define SvREFCNT_inc_simple_void(sv) ((void) SvREFCNT_inc(sv))
114 #endif
115
116 #ifndef mPUSHu
117 # define mPUSHu(U) PUSHs(sv_2mortal(newSVuv(U)))
118 #endif
119
120 #ifndef PERL_MAGIC_ext
121 # define PERL_MAGIC_ext '~'
122 #endif
123
124 #ifndef PERL_MAGIC_tied
125 # define PERL_MAGIC_tied 'P'
126 #endif
127
128 #ifndef MGf_LOCAL
129 # define MGf_LOCAL 0
130 #endif
131
132 #ifndef IN_PERL_COMPILETIME
133 # define IN_PERL_COMPILETIME (PL_curcop == &PL_compiling)
134 #endif
135
136 #ifdef DEBUGGING
137 # define VMG_ASSERT(C) assert(C)
138 #else
139 # define VMG_ASSERT(C)
140 #endif
141
142 /* uvar magic and Hash::Util::FieldHash were commited with 28419, but we only
143  * enable them on 5.10 */
144 #if VMG_HAS_PERL(5, 10, 0)
145 # define VMG_UVAR 1
146 #else
147 # define VMG_UVAR 0
148 #endif
149
150 #if VMG_HAS_PERL_MAINT(5, 11, 0, 32969) || VMG_HAS_PERL(5, 12, 0)
151 # define VMG_COMPAT_SCALAR_LENGTH_NOLEN 1
152 #else
153 # define VMG_COMPAT_SCALAR_LENGTH_NOLEN 0
154 #endif
155
156 #if VMG_HAS_PERL(5, 17, 4)
157 # define VMG_COMPAT_SCALAR_NOLEN 1
158 #else
159 # define VMG_COMPAT_SCALAR_NOLEN 0
160 #endif
161
162 /* Applied to dev-5.9 as 25854, integrated to maint-5.8 as 28160, partially
163  * reverted to dev-5.11 as 9cdcb38b */
164 #if VMG_HAS_PERL_MAINT(5, 8, 9, 28160) || VMG_HAS_PERL_MAINT(5, 9, 3, 25854) || VMG_HAS_PERL(5, 10, 0)
165 # ifndef VMG_COMPAT_ARRAY_PUSH_NOLEN
166 #  if VMG_HAS_PERL(5, 11, 0)
167 #   define VMG_COMPAT_ARRAY_PUSH_NOLEN 0
168 #  else
169 #   define VMG_COMPAT_ARRAY_PUSH_NOLEN 1
170 #  endif
171 # endif
172 # ifndef VMG_COMPAT_ARRAY_PUSH_NOLEN_VOID
173 #  define VMG_COMPAT_ARRAY_PUSH_NOLEN_VOID 1
174 # endif
175 #else
176 # ifndef VMG_COMPAT_ARRAY_PUSH_NOLEN
177 #  define VMG_COMPAT_ARRAY_PUSH_NOLEN 0
178 # endif
179 # ifndef VMG_COMPAT_ARRAY_PUSH_NOLEN_VOID
180 #  define VMG_COMPAT_ARRAY_PUSH_NOLEN_VOID 0
181 # endif
182 #endif
183
184 /* Applied to dev-5.11 as 34908 */
185 #if VMG_HAS_PERL_MAINT(5, 11, 0, 34908) || VMG_HAS_PERL(5, 12, 0)
186 # define VMG_COMPAT_ARRAY_UNSHIFT_NOLEN_VOID 1
187 #else
188 # define VMG_COMPAT_ARRAY_UNSHIFT_NOLEN_VOID 0
189 #endif
190
191 /* Applied to dev-5.9 as 31473 (see #43357), integrated to maint-5.8 as 32542 */
192 #if VMG_HAS_PERL_MAINT(5, 8, 9, 32542) || VMG_HAS_PERL_MAINT(5, 9, 5, 31473) || VMG_HAS_PERL(5, 10, 0)
193 # define VMG_COMPAT_ARRAY_UNDEF_CLEAR 1
194 #else
195 # define VMG_COMPAT_ARRAY_UNDEF_CLEAR 0
196 #endif
197
198 #if VMG_HAS_PERL(5, 11, 0)
199 # define VMG_COMPAT_HASH_DELETE_NOUVAR_VOID 1
200 #else
201 # define VMG_COMPAT_HASH_DELETE_NOUVAR_VOID 0
202 #endif
203
204 #if VMG_HAS_PERL(5, 17, 0)
205 # define VMG_COMPAT_CODE_COPY_CLONE 1
206 #else
207 # define VMG_COMPAT_CODE_COPY_CLONE 0
208 #endif
209
210 #if VMG_HAS_PERL(5, 13, 2)
211 # define VMG_COMPAT_GLOB_GET 1
212 #else
213 # define VMG_COMPAT_GLOB_GET 0
214 #endif
215
216 #define VMG_PROPAGATE_ERRSV_NEEDS_TRAMPOLINE (VMG_HAS_PERL(5, 10, 0) && !VMG_HAS_PERL(5, 10, 1))
217
218 /* NewOp() isn't public in perl 5.8.0. */
219 #define VMG_RESET_RMG_NEEDS_TRAMPOLINE (VMG_UVAR && (VMG_THREADSAFE || !VMG_HAS_PERL(5, 8, 1)))
220
221 /* ... Bug-free mg_magical ................................................. */
222
223 /* See the discussion at http://www.xray.mpe.mpg.de/mailing-lists/perl5-porters/2008-01/msg00036.html */
224
225 #if VMG_HAS_PERL(5, 11, 3)
226
227 #define vmg_mg_magical(S) mg_magical(S)
228
229 #else
230
231 static void vmg_mg_magical(SV *sv) {
232  const MAGIC *mg;
233
234  SvMAGICAL_off(sv);
235  if ((mg = SvMAGIC(sv))) {
236   do {
237    const MGVTBL* const vtbl = mg->mg_virtual;
238    if (vtbl) {
239     if (vtbl->svt_get && !(mg->mg_flags & MGf_GSKIP))
240      SvGMAGICAL_on(sv);
241     if (vtbl->svt_set)
242      SvSMAGICAL_on(sv);
243     if (vtbl->svt_clear)
244      SvRMAGICAL_on(sv);
245    }
246   } while ((mg = mg->mg_moremagic));
247   if (!(SvFLAGS(sv) & (SVs_GMG|SVs_SMG)))
248    SvRMAGICAL_on(sv);
249  }
250 }
251
252 #endif
253
254 /* --- Trampoline ops ------------------------------------------------------ */
255
256 #define VMG_NEEDS_TRAMPOLINE VMG_PROPAGATE_ERRSV_NEEDS_TRAMPOLINE || VMG_RESET_RMG_NEEDS_TRAMPOLINE
257
258 #if VMG_NEEDS_TRAMPOLINE
259
260 typedef struct {
261  OP   temp;
262  SVOP target;
263 } vmg_trampoline;
264
265 static void vmg_trampoline_init(vmg_trampoline *t, OP *(*cb)(pTHX)) {
266  t->temp.op_type    = OP_STUB;
267  t->temp.op_ppaddr  = 0;
268  t->temp.op_next    = (OP *) &t->target;
269  t->temp.op_flags   = 0;
270  t->temp.op_private = 0;
271
272  t->target.op_type    = OP_STUB;
273  t->target.op_ppaddr  = cb;
274  t->target.op_next    = NULL;
275  t->target.op_flags   = 0;
276  t->target.op_private = 0;
277  t->target.op_sv      = NULL;
278 }
279
280 static OP *vmg_trampoline_bump(pTHX_ vmg_trampoline *t, SV *sv, OP *o) {
281 #define vmg_trampoline_bump(T, S, O) vmg_trampoline_bump(aTHX_ (T), (S), (O))
282  t->temp         = *o;
283  t->temp.op_next = (OP *) &t->target;
284
285  t->target.op_sv   = sv;
286  t->target.op_next = o->op_next;
287
288  return &t->temp;
289 }
290
291 #endif /* VMG_NEEDS_TRAMPOLINE */
292
293 /* --- Cleaner version of sv_magicext() ------------------------------------ */
294
295 static MAGIC *vmg_sv_magicext(pTHX_ SV *sv, SV *obj, const MGVTBL *vtbl, const void *ptr, I32 len) {
296 #define vmg_sv_magicext(S, O, V, P, L) vmg_sv_magicext(aTHX_ (S), (O), (V), (P), (L))
297  MAGIC *mg;
298
299  mg = sv_magicext(sv, obj, PERL_MAGIC_ext, vtbl, ptr, len);
300  if (!mg)
301   return NULL;
302
303  mg->mg_private = 0;
304
305  if (vtbl->svt_copy)
306   mg->mg_flags |= MGf_COPY;
307 #if MGf_DUP
308  if (vtbl->svt_dup)
309   mg->mg_flags |= MGf_DUP;
310 #endif /* MGf_DUP */
311 #if MGf_LOCAL
312  if (vtbl->svt_local)
313   mg->mg_flags |= MGf_LOCAL;
314 #endif /* MGf_LOCAL */
315
316  if (mg->mg_flags & MGf_REFCOUNTED)
317   SvREFCNT_dec(obj);
318
319  return mg;
320 }
321
322 /* --- Safe version of call_sv() ------------------------------------------- */
323
324 static I32 vmg_call_sv(pTHX_ SV *sv, I32 flags, int (*cleanup)(pTHX_ void *), void *ud) {
325 #define vmg_call_sv(S, F, C, U) vmg_call_sv(aTHX_ (S), (F), (C), (U))
326  I32 ret, cxix;
327  PERL_CONTEXT saved_cx;
328  SV *old_err = NULL;
329
330  if (SvTRUE(ERRSV)) {
331   old_err = newSVsv(ERRSV);
332   sv_setsv(ERRSV, &PL_sv_undef);
333  }
334
335  cxix     = (cxstack_ix < cxstack_max) ? (cxstack_ix + 1) : Perl_cxinc(aTHX);
336  /* The last popped context will be reused by call_sv(), but our callers may
337   * still need its previous value. Back it up so that it isn't clobbered. */
338  saved_cx = cxstack[cxix];
339
340  ret = call_sv(sv, flags | G_EVAL);
341
342  cxstack[cxix] = saved_cx;
343
344  if (SvTRUE(ERRSV)) {
345   SvREFCNT_dec(old_err);
346
347   if (IN_PERL_COMPILETIME) {
348    if (!PL_in_eval) {
349     if (PL_errors)
350      sv_catsv(PL_errors, ERRSV);
351     else
352      Perl_warn(aTHX_ "%s", SvPV_nolen(ERRSV));
353     SvCUR_set(ERRSV, 0);
354    }
355 #if VMG_HAS_PERL(5, 10, 0) || defined(PL_parser)
356    if (PL_parser)
357     ++PL_parser->error_count;
358 #elif defined(PL_error_count)
359    ++PL_error_count;
360 #else
361    ++PL_Ierror_count;
362 #endif
363   } else {
364    if (!cleanup || cleanup(aTHX_ ud))
365     croak(NULL);
366   }
367  } else {
368   if (old_err) {
369    sv_setsv(ERRSV, old_err);
370    SvREFCNT_dec(old_err);
371   }
372  }
373
374  return ret;
375 }
376
377 /* --- Stolen chunk of B --------------------------------------------------- */
378
379 typedef enum {
380  OPc_NULL,
381  OPc_BASEOP,
382  OPc_UNOP,
383  OPc_BINOP,
384  OPc_LOGOP,
385  OPc_LISTOP,
386  OPc_PMOP,
387  OPc_SVOP,
388  OPc_PADOP,
389  OPc_PVOP,
390  OPc_LOOP,
391  OPc_COP,
392 #if VMG_HAS_PERL(5, 21, 5)
393  OPc_METHOP,
394 #endif
395 #if VMG_HAS_PERL(5, 21, 7)
396  OPc_UNOP_AUX,
397 #endif
398  OPc_MAX
399 } opclass;
400
401 static const char *const vmg_opclassnames[] = {
402  "B::NULL",
403  "B::OP",
404  "B::UNOP",
405  "B::BINOP",
406  "B::LOGOP",
407  "B::LISTOP",
408  "B::PMOP",
409  "B::SVOP",
410  "B::PADOP",
411  "B::PVOP",
412  "B::LOOP",
413  "B::COP",
414 #if VMG_HAS_PERL(5, 21, 5)
415  "B::METHOP",
416 #endif
417 #if VMG_HAS_PERL(5, 21, 7)
418  "B::UNOP_AUX",
419 #endif
420  NULL
421 };
422
423 static opclass vmg_opclass(const OP *o) {
424 #if 0
425  if (!o)
426   return OPc_NULL;
427 #endif
428
429  if (o->op_type == 0) {
430 #if VMG_HAS_PERL(5, 21, 7)
431   if (o->op_targ == OP_NEXTSTATE || o->op_targ == OP_DBSTATE)
432    return OPc_COP;
433 #endif
434   return (o->op_flags & OPf_KIDS) ? OPc_UNOP : OPc_BASEOP;
435  }
436
437  if (o->op_type == OP_SASSIGN)
438   return ((o->op_private & OPpASSIGN_BACKWARDS) ? OPc_UNOP : OPc_BINOP);
439
440  if (o->op_type == OP_AELEMFAST) {
441 #if PERL_VERSION <= 14
442   if (o->op_flags & OPf_SPECIAL)
443    return OPc_BASEOP;
444   else
445 #endif
446 #ifdef USE_ITHREADS
447    return OPc_PADOP;
448 #else
449    return OPc_SVOP;
450 #endif
451  }
452
453 #ifdef USE_ITHREADS
454  if (o->op_type == OP_GV || o->op_type == OP_GVSV || o->op_type == OP_RCATLINE)
455   return OPc_PADOP;
456 #endif
457
458  switch (PL_opargs[o->op_type] & OA_CLASS_MASK) {
459   case OA_BASEOP:
460    return OPc_BASEOP;
461   case OA_UNOP:
462    return OPc_UNOP;
463   case OA_BINOP:
464    return OPc_BINOP;
465   case OA_LOGOP:
466    return OPc_LOGOP;
467   case OA_LISTOP:
468    return OPc_LISTOP;
469   case OA_PMOP:
470    return OPc_PMOP;
471   case OA_SVOP:
472    return OPc_SVOP;
473   case OA_PADOP:
474    return OPc_PADOP;
475   case OA_PVOP_OR_SVOP:
476    return (o->op_private & (OPpTRANS_TO_UTF|OPpTRANS_FROM_UTF))
477 #if defined(USE_ITHREADS) && VMG_HAS_PERL(5, 8, 9)
478            ? OPc_PADOP : OPc_PVOP;
479 #else
480            ? OPc_SVOP : OPc_PVOP;
481 #endif
482   case OA_LOOP:
483    return OPc_LOOP;
484   case OA_COP:
485    return OPc_COP;
486   case OA_BASEOP_OR_UNOP:
487    return (o->op_flags & OPf_KIDS) ? OPc_UNOP : OPc_BASEOP;
488   case OA_FILESTATOP:
489    return ((o->op_flags & OPf_KIDS) ? OPc_UNOP :
490 #ifdef USE_ITHREADS
491            (o->op_flags & OPf_REF) ? OPc_PADOP : OPc_BASEOP);
492 #else
493            (o->op_flags & OPf_REF) ? OPc_SVOP : OPc_BASEOP);
494 #endif
495   case OA_LOOPEXOP:
496    if (o->op_flags & OPf_STACKED)
497     return OPc_UNOP;
498    else if (o->op_flags & OPf_SPECIAL)
499     return OPc_BASEOP;
500    else
501     return OPc_PVOP;
502 #if VMG_HAS_PERL(5, 21, 5)
503   case OA_METHOP:
504    return OPc_METHOP;
505 #endif
506 #if VMG_HAS_PERL(5, 21, 7)
507   case OA_UNOP_AUX:
508    return OPc_UNOP_AUX;
509 #endif
510  }
511
512  return OPc_BASEOP;
513 }
514
515 /* --- Error messages ------------------------------------------------------ */
516
517 static const char vmg_invalid_wiz[] = "Invalid wizard object";
518 static const char vmg_wrongargnum[] = "Wrong number of arguments";
519
520 /* --- Context-safe global data -------------------------------------------- */
521
522 #define MY_CXT_KEY __PACKAGE__ "::_guts" XS_VERSION
523
524 typedef struct {
525  HV             *b__op_stashes[OPc_MAX];
526  I32             depth;
527  MAGIC          *freed_tokens;
528 #if VMG_PROPAGATE_ERRSV_NEEDS_TRAMPOLINE
529  vmg_trampoline  propagate_errsv;
530 #endif
531 #if VMG_RESET_RMG_NEEDS_TRAMPOLINE
532  vmg_trampoline  reset_rmg;
533 #endif
534 } my_cxt_t;
535
536 START_MY_CXT
537
538 /* --- <vmg_vtable> structure ---------------------------------------------- */
539
540 #if VMG_THREADSAFE
541
542 typedef struct {
543  MGVTBL *vtbl;
544  U32     refcount;
545 } vmg_vtable;
546
547 static vmg_vtable *vmg_vtable_alloc(pTHX) {
548 #define vmg_vtable_alloc() vmg_vtable_alloc(aTHX)
549  vmg_vtable *t;
550
551  t = VOID2(vmg_vtable *, PerlMemShared_malloc(sizeof *t));
552
553  t->vtbl     = VOID2(MGVTBL *, PerlMemShared_malloc(sizeof *t->vtbl));
554  t->refcount = 1;
555
556  return t;
557 }
558
559 #define vmg_vtable_vtbl(T) (T)->vtbl
560
561 static perl_mutex vmg_vtable_refcount_mutex;
562
563 static vmg_vtable *vmg_vtable_dup(pTHX_ vmg_vtable *t) {
564 #define vmg_vtable_dup(T) vmg_vtable_dup(aTHX_ (T))
565  VMG_LOCK(&vmg_vtable_refcount_mutex);
566  ++t->refcount;
567  VMG_UNLOCK(&vmg_vtable_refcount_mutex);
568
569  return t;
570 }
571
572 static void vmg_vtable_free(pTHX_ vmg_vtable *t) {
573 #define vmg_vtable_free(T) vmg_vtable_free(aTHX_ (T))
574  U32 refcount;
575
576  VMG_LOCK(&vmg_vtable_refcount_mutex);
577  refcount = --t->refcount;
578  VMG_UNLOCK(&vmg_vtable_refcount_mutex);
579
580  if (!refcount) {
581   PerlMemShared_free(t->vtbl);
582   PerlMemShared_free(t);
583  }
584 }
585
586 #else /* VMG_THREADSAFE */
587
588 typedef MGVTBL vmg_vtable;
589
590 static vmg_vtable *vmg_vtable_alloc(pTHX) {
591 #define vmg_vtable_alloc() vmg_vtable_alloc(aTHX)
592  vmg_vtable *t;
593
594  Newx(t, 1, vmg_vtable);
595
596  return t;
597 }
598
599 #define vmg_vtable_vtbl(T) ((MGVTBL *) (T))
600
601 #define vmg_vtable_free(T) Safefree(T)
602
603 #endif /* !VMG_THREADSAFE */
604
605 /* --- <vmg_wizard> structure ---------------------------------------------- */
606
607 typedef struct {
608  vmg_vtable *vtable;
609
610  U8 opinfo;
611  U8 uvar;
612
613  SV *cb_data;
614  SV *cb_get, *cb_set, *cb_len, *cb_clear, *cb_free;
615  SV *cb_copy;
616  SV *cb_dup;
617 #if MGf_LOCAL
618  SV *cb_local;
619 #endif /* MGf_LOCAL */
620 #if VMG_UVAR
621  SV *cb_fetch, *cb_store, *cb_exists, *cb_delete;
622 #endif /* VMG_UVAR */
623 } vmg_wizard;
624
625 static void vmg_op_info_init(pTHX_ unsigned int opinfo);
626
627 static vmg_wizard *vmg_wizard_alloc(pTHX_ UV opinfo) {
628 #define vmg_wizard_alloc(O) vmg_wizard_alloc(aTHX_ (O))
629  vmg_wizard *w;
630
631  Newx(w, 1, vmg_wizard);
632
633  w->uvar   = 0;
634  w->opinfo = (U8) ((opinfo < 255) ? opinfo : 255);
635  if (w->opinfo)
636   vmg_op_info_init(aTHX_ w->opinfo);
637
638  w->vtable = vmg_vtable_alloc();
639
640  return w;
641 }
642
643 static void vmg_wizard_free(pTHX_ vmg_wizard *w) {
644 #define vmg_wizard_free(W) vmg_wizard_free(aTHX_ (W))
645  if (!w)
646   return;
647
648  /* During global destruction, any of the callbacks may already have been
649   * freed, so we can't rely on still being able to access them. */
650  if (!PL_dirty) {
651   SvREFCNT_dec(w->cb_data);
652   SvREFCNT_dec(w->cb_get);
653   SvREFCNT_dec(w->cb_set);
654   SvREFCNT_dec(w->cb_len);
655   SvREFCNT_dec(w->cb_clear);
656   SvREFCNT_dec(w->cb_free);
657   SvREFCNT_dec(w->cb_copy);
658 #if 0
659   SvREFCNT_dec(w->cb_dup);
660 #endif
661 #if MGf_LOCAL
662   SvREFCNT_dec(w->cb_local);
663 #endif /* MGf_LOCAL */
664 #if VMG_UVAR
665   SvREFCNT_dec(w->cb_fetch);
666   SvREFCNT_dec(w->cb_store);
667   SvREFCNT_dec(w->cb_exists);
668   SvREFCNT_dec(w->cb_delete);
669 #endif /* VMG_UVAR */
670  }
671
672  /* PerlMemShared_free() and Safefree() are still fine during global
673   * destruction though. */
674  vmg_vtable_free(w->vtable);
675  Safefree(w);
676
677  return;
678 }
679
680 #if VMG_THREADSAFE
681
682 #define VMG_CLONE_CB(N) \
683  z->cb_ ## N = (w->cb_ ## N) ? SvREFCNT_inc(sv_dup(w->cb_ ## N, params)) \
684                              : NULL;
685
686 static const vmg_wizard *vmg_wizard_dup(pTHX_ const vmg_wizard *w, CLONE_PARAMS *params) {
687 #define vmg_wizard_dup(W, P) vmg_wizard_dup(aTHX_ (W), (P))
688  vmg_wizard *z;
689
690  if (!w)
691   return NULL;
692
693  Newx(z, 1, vmg_wizard);
694
695  z->vtable = vmg_vtable_dup(w->vtable);
696  z->uvar   = w->uvar;
697  z->opinfo = w->opinfo;
698
699  VMG_CLONE_CB(data);
700  VMG_CLONE_CB(get);
701  VMG_CLONE_CB(set);
702  VMG_CLONE_CB(len);
703  VMG_CLONE_CB(clear);
704  VMG_CLONE_CB(free);
705  VMG_CLONE_CB(copy);
706  VMG_CLONE_CB(dup);
707 #if MGf_LOCAL
708  VMG_CLONE_CB(local);
709 #endif /* MGf_LOCAL */
710 #if VMG_UVAR
711  VMG_CLONE_CB(fetch);
712  VMG_CLONE_CB(store);
713  VMG_CLONE_CB(exists);
714  VMG_CLONE_CB(delete);
715 #endif /* VMG_UVAR */
716
717  return z;
718 }
719
720 #endif /* VMG_THREADSAFE */
721
722 #define vmg_wizard_id(W) PTR2IV(vmg_vtable_vtbl((W)->vtable))
723
724 /* --- Wizard SV objects --------------------------------------------------- */
725
726 static int vmg_wizard_sv_free(pTHX_ SV *sv, MAGIC *mg) {
727  vmg_wizard_free((vmg_wizard *) mg->mg_ptr);
728
729  return 0;
730 }
731
732 #if VMG_THREADSAFE
733
734 static int vmg_wizard_sv_dup(pTHX_ MAGIC *mg, CLONE_PARAMS *params) {
735  mg->mg_ptr = (char *) vmg_wizard_dup((const vmg_wizard *) mg->mg_ptr, params);
736
737  return 0;
738 }
739
740 #endif /* VMG_THREADSAFE */
741
742 static MGVTBL vmg_wizard_sv_vtbl = {
743  NULL,               /* get */
744  NULL,               /* set */
745  NULL,               /* len */
746  NULL,               /* clear */
747  vmg_wizard_sv_free, /* free */
748  NULL,               /* copy */
749 #if VMG_THREADSAFE
750  vmg_wizard_sv_dup,  /* dup */
751 #else
752  NULL,               /* dup */
753 #endif
754 #if MGf_LOCAL
755  NULL,               /* local */
756 #endif /* MGf_LOCAL */
757 };
758
759 static SV *vmg_wizard_sv_new(pTHX_ const vmg_wizard *w) {
760 #define vmg_wizard_sv_new(W) vmg_wizard_sv_new(aTHX_ (W))
761  SV *wiz;
762
763 #if VMG_THREADSAFE
764  wiz = newSV(0);
765 #else
766  wiz = newSViv(PTR2IV(w));
767 #endif
768
769  vmg_sv_magicext(wiz, NULL, &vmg_wizard_sv_vtbl, w, 0);
770
771  SvREADONLY_on(wiz);
772
773  return wiz;
774 }
775
776 #if VMG_THREADSAFE
777
778 #define vmg_sv_has_wizard_type(S) (SvTYPE(S) >= SVt_PVMG)
779
780 static const vmg_wizard *vmg_wizard_from_sv_nocheck(const SV *wiz) {
781  MAGIC *mg;
782
783  for (mg = SvMAGIC(wiz); mg; mg = mg->mg_moremagic) {
784   if (mg->mg_type == PERL_MAGIC_ext && mg->mg_virtual == &vmg_wizard_sv_vtbl)
785    return (const vmg_wizard *) mg->mg_ptr;
786  }
787
788  return NULL;
789 }
790
791 #else /* VMG_THREADSAFE */
792
793 #define vmg_sv_has_wizard_type(S) SvIOK(S)
794
795 #define vmg_wizard_from_sv_nocheck(W) INT2PTR(const vmg_wizard *, SvIVX(W))
796
797 #endif /* !VMG_THREADSAFE */
798
799 #define vmg_wizard_from_sv(W) (vmg_sv_has_wizard_type(W) ? vmg_wizard_from_sv_nocheck(W) : NULL)
800
801 static const vmg_wizard *vmg_wizard_from_mg(const MAGIC *mg) {
802  if (mg->mg_type == PERL_MAGIC_ext && mg->mg_len == HEf_SVKEY) {
803   SV *sv = (SV *) mg->mg_ptr;
804
805   if (vmg_sv_has_wizard_type(sv))
806    return vmg_wizard_from_sv_nocheck(sv);
807  }
808
809  return NULL;
810 }
811
812 #define vmg_wizard_from_mg_nocheck(M) vmg_wizard_from_sv_nocheck((const SV *) (M)->mg_ptr)
813
814 /* --- User-level functions implementation --------------------------------- */
815
816 static const MAGIC *vmg_find(const SV *sv, const vmg_wizard *w) {
817  const MAGIC *mg;
818  IV wid;
819
820  if (SvTYPE(sv) < SVt_PVMG)
821   return NULL;
822
823  wid = vmg_wizard_id(w);
824
825  for (mg = SvMAGIC(sv); mg; mg = mg->mg_moremagic) {
826   const vmg_wizard *z = vmg_wizard_from_mg(mg);
827
828   if (z && vmg_wizard_id(z) == wid)
829    return mg;
830  }
831
832  return NULL;
833 }
834
835 /* ... Construct private data .............................................. */
836
837 static SV *vmg_data_new(pTHX_ SV *ctor, SV *sv, SV **args, I32 items) {
838 #define vmg_data_new(C, S, A, I) vmg_data_new(aTHX_ (C), (S), (A), (I))
839  I32 i;
840  SV *nsv;
841
842  dSP;
843
844  ENTER;
845  SAVETMPS;
846
847  PUSHMARK(SP);
848  EXTEND(SP, items + 1);
849  PUSHs(sv_2mortal(newRV_inc(sv)));
850  for (i = 0; i < items; ++i)
851   PUSHs(args[i]);
852  PUTBACK;
853
854  vmg_call_sv(ctor, G_SCALAR, 0, NULL);
855
856  SPAGAIN;
857  nsv = POPs;
858 #if VMG_HAS_PERL(5, 8, 3)
859  SvREFCNT_inc_simple_void(nsv); /* Or it will be destroyed in FREETMPS */
860 #else
861  nsv = sv_newref(nsv);          /* Workaround some bug in SvREFCNT_inc() */
862 #endif
863  PUTBACK;
864
865  FREETMPS;
866  LEAVE;
867
868  return nsv;
869 }
870
871 static SV *vmg_data_get(pTHX_ SV *sv, const vmg_wizard *w) {
872 #define vmg_data_get(S, W) vmg_data_get(aTHX_ (S), (W))
873  const MAGIC *mg = vmg_find(sv, w);
874
875  return mg ? mg->mg_obj : NULL;
876 }
877
878 /* ... Magic cast/dispell .................................................. */
879
880 #if VMG_UVAR
881
882 static I32 vmg_svt_val(pTHX_ IV, SV *);
883
884 typedef struct {
885  struct ufuncs new_uf;
886  struct ufuncs old_uf;
887 } vmg_uvar_ud;
888
889 #endif /* VMG_UVAR */
890
891 static void vmg_mg_del(pTHX_ SV *sv, MAGIC *prevmagic, MAGIC *mg, MAGIC *moremagic) {
892 #define vmg_mg_del(S, P, M, N) vmg_mg_del(aTHX_ (S), (P), (M), (N))
893  dMY_CXT;
894
895  if (prevmagic)
896   prevmagic->mg_moremagic = moremagic;
897  else
898   SvMAGIC_set(sv, moremagic);
899
900  /* Destroy private data */
901 #if VMG_UVAR
902  if (mg->mg_type == PERL_MAGIC_uvar) {
903   Safefree(mg->mg_ptr);
904  } else {
905 #endif /* VMG_UVAR */
906   if (mg->mg_obj != sv) {
907    SvREFCNT_dec(mg->mg_obj);
908    mg->mg_obj = NULL;
909   }
910   /* Unreference the wizard */
911   SvREFCNT_dec((SV *) mg->mg_ptr);
912   mg->mg_ptr = NULL;
913 #if VMG_UVAR
914  }
915 #endif /* VMG_UVAR */
916
917  if (MY_CXT.depth) {
918   mg->mg_moremagic    = MY_CXT.freed_tokens;
919   MY_CXT.freed_tokens = mg;
920  } else {
921   mg->mg_moremagic = NULL;
922   Safefree(mg);
923  }
924 }
925
926 static int vmg_magic_chain_free(pTHX_ MAGIC *mg, MAGIC *skip) {
927 #define vmg_magic_chain_free(M, S) vmg_magic_chain_free(aTHX_ (M), (S))
928  int skipped = 0;
929
930  while (mg) {
931   MAGIC *moremagic = mg->mg_moremagic;
932
933   if (mg == skip)
934    ++skipped;
935   else
936    Safefree(mg);
937
938   mg = moremagic;
939  }
940
941  return skipped;
942 }
943
944 static UV vmg_cast(pTHX_ SV *sv, const vmg_wizard *w, const SV *wiz, SV **args, I32 items) {
945 #define vmg_cast(S, W, WIZ, A, I) vmg_cast(aTHX_ (S), (W), (WIZ), (A), (I))
946  MAGIC  *mg;
947  MGVTBL *t;
948  SV     *data;
949  U32     oldgmg;
950
951  if (vmg_find(sv, w))
952   return 1;
953
954  oldgmg = SvGMAGICAL(sv);
955
956  data = (w->cb_data) ? vmg_data_new(w->cb_data, sv, args, items) : NULL;
957
958  t  = vmg_vtable_vtbl(w->vtable);
959  mg = vmg_sv_magicext(sv, data, t, wiz, HEf_SVKEY);
960
961  if (SvTYPE(sv) < SVt_PVHV)
962   goto done;
963
964  /* The GMAGICAL flag only says that a hash is tied or has uvar magic - get
965   * magic is actually never called for them. If the GMAGICAL flag was off before
966   * calling sv_magicext(), the hash isn't tied and has no uvar magic. If it's
967   * now on, then this wizard has get magic. Hence we can work around the
968   * get/clear shortcoming by turning the GMAGICAL flag off. If the current magic
969   * has uvar callbacks, it will be turned back on later. */
970  if (!oldgmg && SvGMAGICAL(sv))
971   SvGMAGICAL_off(sv);
972
973 #if VMG_UVAR
974  if (w->uvar) {
975   MAGIC *prevmagic, *moremagic = NULL;
976   vmg_uvar_ud ud;
977
978   ud.new_uf.uf_val   = vmg_svt_val;
979   ud.new_uf.uf_set   = NULL;
980   ud.new_uf.uf_index = 0;
981   ud.old_uf.uf_val   = NULL;
982   ud.old_uf.uf_set   = NULL;
983   ud.old_uf.uf_index = 0;
984
985   /* One uvar magic in the chain is enough. */
986   for (prevmagic = NULL, mg = SvMAGIC(sv); mg; prevmagic = mg, mg = moremagic) {
987    moremagic = mg->mg_moremagic;
988    if (mg->mg_type == PERL_MAGIC_uvar)
989     break;
990   }
991
992   if (mg) { /* Found another uvar magic. */
993    struct ufuncs *uf = (struct ufuncs *) mg->mg_ptr;
994    if (uf->uf_val == vmg_svt_val) {
995     /* It's our uvar magic, nothing to do. oldgmg was true. */
996     goto done;
997    } else {
998     /* It's another uvar magic, backup it and replace it by ours. */
999     ud.old_uf = *uf;
1000     vmg_mg_del(sv, prevmagic, mg, moremagic);
1001    }
1002   }
1003
1004   sv_magic(sv, NULL, PERL_MAGIC_uvar, (const char *) &ud, sizeof(ud));
1005   vmg_mg_magical(sv);
1006   /* Our hash now carries uvar magic. The uvar/clear shortcoming has to be
1007    * handled by our uvar callback. */
1008  }
1009 #endif /* VMG_UVAR */
1010
1011 done:
1012  return 1;
1013 }
1014
1015 static UV vmg_dispell(pTHX_ SV *sv, const vmg_wizard *w) {
1016 #define vmg_dispell(S, W) vmg_dispell(aTHX_ (S), (W))
1017 #if VMG_UVAR
1018  U32 uvars = 0;
1019 #endif /* VMG_UVAR */
1020  MAGIC *mg, *prevmagic, *moremagic = NULL;
1021  IV wid = vmg_wizard_id(w);
1022
1023  if (SvTYPE(sv) < SVt_PVMG)
1024   return 0;
1025
1026  for (prevmagic = NULL, mg = SvMAGIC(sv); mg; prevmagic = mg, mg = moremagic) {
1027   const vmg_wizard *z;
1028
1029   moremagic = mg->mg_moremagic;
1030
1031   z = vmg_wizard_from_mg(mg);
1032   if (z) {
1033    IV zid = vmg_wizard_id(z);
1034
1035 #if VMG_UVAR
1036    if (zid == wid) {
1037     /* If the current has no uvar, short-circuit uvar deletion. */
1038     uvars = z->uvar ? (uvars + 1) : 0;
1039     break;
1040    } else if (z->uvar) {
1041     ++uvars;
1042     /* We can't break here since we need to find the ext magic to delete. */
1043    }
1044 #else /* VMG_UVAR */
1045    if (zid == wid)
1046     break;
1047 #endif /* !VMG_UVAR */
1048   }
1049  }
1050  if (!mg)
1051   return 0;
1052
1053  vmg_mg_del(sv, prevmagic, mg, moremagic);
1054
1055 #if VMG_UVAR
1056  if (uvars == 1 && SvTYPE(sv) >= SVt_PVHV) {
1057   /* mg was the first ext magic in the chain that had uvar */
1058
1059   for (mg = moremagic; mg; mg = mg->mg_moremagic) {
1060    const vmg_wizard *z = vmg_wizard_from_mg(mg);
1061
1062    if (z && z->uvar) {
1063     ++uvars;
1064     break;
1065    }
1066   }
1067
1068   if (uvars == 1) {
1069    vmg_uvar_ud *ud;
1070
1071    for (prevmagic = NULL, mg = SvMAGIC(sv); mg; prevmagic = mg, mg = moremagic){
1072     moremagic = mg->mg_moremagic;
1073     if (mg->mg_type == PERL_MAGIC_uvar)
1074      break;
1075    }
1076
1077    ud = (vmg_uvar_ud *) mg->mg_ptr;
1078    if (ud->old_uf.uf_val || ud->old_uf.uf_set) {
1079     /* Revert the original uvar magic. */
1080     struct ufuncs *uf;
1081     Newx(uf, 1, struct ufuncs);
1082     *uf = ud->old_uf;
1083     Safefree(ud);
1084     mg->mg_ptr = (char *) uf;
1085     mg->mg_len = sizeof(*uf);
1086    } else {
1087     /* Remove the uvar magic. */
1088     vmg_mg_del(sv, prevmagic, mg, moremagic);
1089    }
1090   }
1091  }
1092 #endif /* VMG_UVAR */
1093
1094  vmg_mg_magical(sv);
1095
1096  return 1;
1097 }
1098
1099 /* ... OP info ............................................................. */
1100
1101 #define VMG_OP_INFO_NAME   1
1102 #define VMG_OP_INFO_OBJECT 2
1103
1104 #if VMG_THREADSAFE
1105 static perl_mutex vmg_op_name_init_mutex;
1106 #endif
1107
1108 static U32           vmg_op_name_init      = 0;
1109 static unsigned char vmg_op_name_len[MAXO] = { 0 };
1110
1111 static void vmg_op_info_init(pTHX_ unsigned int opinfo) {
1112 #define vmg_op_info_init(W) vmg_op_info_init(aTHX_ (W))
1113  switch (opinfo) {
1114   case VMG_OP_INFO_NAME:
1115    VMG_LOCK(&vmg_op_name_init_mutex);
1116    if (!vmg_op_name_init) {
1117     OPCODE t;
1118     for (t = 0; t < OP_max; ++t)
1119      vmg_op_name_len[t] = strlen(PL_op_name[t]);
1120     vmg_op_name_init = 1;
1121    }
1122    VMG_UNLOCK(&vmg_op_name_init_mutex);
1123    break;
1124   case VMG_OP_INFO_OBJECT: {
1125    dMY_CXT;
1126    if (!MY_CXT.b__op_stashes[0]) {
1127     int c;
1128     require_pv("B.pm");
1129     for (c = OPc_NULL; c < OPc_MAX; ++c)
1130      MY_CXT.b__op_stashes[c] = gv_stashpv(vmg_opclassnames[c], 1);
1131    }
1132    break;
1133   }
1134   default:
1135    break;
1136  }
1137 }
1138
1139 static SV *vmg_op_info(pTHX_ unsigned int opinfo) {
1140 #define vmg_op_info(W) vmg_op_info(aTHX_ (W))
1141  if (!PL_op)
1142   return &PL_sv_undef;
1143
1144  switch (opinfo) {
1145   case VMG_OP_INFO_NAME: {
1146    OPCODE t = PL_op->op_type;
1147    return sv_2mortal(newSVpvn(PL_op_name[t], vmg_op_name_len[t]));
1148   }
1149   case VMG_OP_INFO_OBJECT: {
1150    dMY_CXT;
1151    return sv_bless(sv_2mortal(newRV_noinc(newSViv(PTR2IV(PL_op)))),
1152                    MY_CXT.b__op_stashes[vmg_opclass(PL_op)]);
1153   }
1154   default:
1155    break;
1156  }
1157
1158  return &PL_sv_undef;
1159 }
1160
1161 /* --- svt callbacks ------------------------------------------------------- */
1162
1163 #define VMG_CB_CALL_ARGS_MASK  15
1164 #define VMG_CB_CALL_ARGS_SHIFT 4
1165 #define VMG_CB_CALL_OPINFO     (VMG_OP_INFO_NAME|VMG_OP_INFO_OBJECT) /* 1|2 */
1166 #define VMG_CB_CALL_GUARD      4
1167
1168 static int vmg_dispell_guard_oncroak(pTHX_ void *ud) {
1169  dMY_CXT;
1170
1171  MY_CXT.depth--;
1172
1173  /* If we're at the upmost magic call and we're about to die, we can just free
1174   * the tokens right now, since we will jump past the problematic part of our
1175   * caller. */
1176  if (MY_CXT.depth == 0 && MY_CXT.freed_tokens) {
1177   vmg_magic_chain_free(MY_CXT.freed_tokens, NULL);
1178   MY_CXT.freed_tokens = NULL;
1179  }
1180
1181  return 1;
1182 }
1183
1184 static int vmg_dispell_guard_free(pTHX_ SV *sv, MAGIC *mg) {
1185  vmg_magic_chain_free((MAGIC *) mg->mg_ptr, NULL);
1186
1187  return 0;
1188 }
1189
1190 #if VMG_THREADSAFE
1191
1192 static int vmg_dispell_guard_dup(pTHX_ MAGIC *mg, CLONE_PARAMS *params) {
1193  /* The freed magic tokens aren't cloned by perl because it cannot reach them
1194   * (they have been detached from their parent SV when they were enqueued).
1195   * Hence there's nothing to purge in the new thread. */
1196  mg->mg_ptr = NULL;
1197
1198  return 0;
1199 }
1200
1201 #endif /* VMG_THREADSAFE */
1202
1203 static MGVTBL vmg_dispell_guard_vtbl = {
1204  NULL,                   /* get */
1205  NULL,                   /* set */
1206  NULL,                   /* len */
1207  NULL,                   /* clear */
1208  vmg_dispell_guard_free, /* free */
1209  NULL,                   /* copy */
1210 #if VMG_THREADSAFE
1211  vmg_dispell_guard_dup,  /* dup */
1212 #else
1213  NULL,                   /* dup */
1214 #endif
1215 #if MGf_LOCAL
1216  NULL,                   /* local */
1217 #endif /* MGf_LOCAL */
1218 };
1219
1220 static SV *vmg_dispell_guard_new(pTHX_ MAGIC *root) {
1221 #define vmg_dispell_guard_new(R) vmg_dispell_guard_new(aTHX_ (R))
1222  SV *guard;
1223
1224  guard = sv_newmortal();
1225  vmg_sv_magicext(guard, NULL, &vmg_dispell_guard_vtbl, root, 0);
1226
1227  return guard;
1228 }
1229
1230 static int vmg_cb_call(pTHX_ SV *cb, unsigned int flags, SV *sv, ...) {
1231  va_list ap;
1232  int ret = 0;
1233  unsigned int i, args, opinfo;
1234  MAGIC **chain = NULL;
1235  SV *svr;
1236
1237  dSP;
1238
1239  args    = flags & VMG_CB_CALL_ARGS_MASK;
1240  flags >>= VMG_CB_CALL_ARGS_SHIFT;
1241  opinfo  = flags & VMG_CB_CALL_OPINFO;
1242
1243  ENTER;
1244  SAVETMPS;
1245
1246  PUSHMARK(SP);
1247  EXTEND(SP, args + 1);
1248  PUSHs(sv_2mortal(newRV_inc(sv)));
1249  va_start(ap, sv);
1250  for (i = 0; i < args; ++i) {
1251   SV *sva = va_arg(ap, SV *);
1252   PUSHs(sva ? sva : &PL_sv_undef);
1253  }
1254  va_end(ap);
1255  if (opinfo)
1256   XPUSHs(vmg_op_info(opinfo));
1257  PUTBACK;
1258
1259  if (flags & VMG_CB_CALL_GUARD) {
1260   dMY_CXT;
1261   MY_CXT.depth++;
1262   vmg_call_sv(cb, G_SCALAR, vmg_dispell_guard_oncroak, NULL);
1263   MY_CXT.depth--;
1264   if (MY_CXT.depth == 0 && MY_CXT.freed_tokens)
1265    chain = &MY_CXT.freed_tokens;
1266  } else {
1267   vmg_call_sv(cb, G_SCALAR, 0, NULL);
1268  }
1269
1270  SPAGAIN;
1271  svr = POPs;
1272  if (SvOK(svr))
1273   ret = (int) SvIV(svr);
1274  if (SvROK(svr))
1275   SvREFCNT_inc(svr);
1276  else
1277   svr = NULL;
1278  PUTBACK;
1279
1280  FREETMPS;
1281  LEAVE;
1282
1283  if (svr && !SvTEMP(svr))
1284   sv_2mortal(svr);
1285
1286  if (chain) {
1287   vmg_dispell_guard_new(*chain);
1288   *chain = NULL;
1289  }
1290
1291  return ret;
1292 }
1293
1294 #define VMG_CB_FLAGS(OI, A) \
1295         ((((unsigned int) (OI)) << VMG_CB_CALL_ARGS_SHIFT) | (A))
1296
1297 #define vmg_cb_call1(I, OI, S, A1) \
1298         vmg_cb_call(aTHX_ (I), VMG_CB_FLAGS((OI), 1), (S), (A1))
1299 #define vmg_cb_call2(I, OI, S, A1, A2) \
1300         vmg_cb_call(aTHX_ (I), VMG_CB_FLAGS((OI), 2), (S), (A1), (A2))
1301 #define vmg_cb_call3(I, OI, S, A1, A2, A3) \
1302         vmg_cb_call(aTHX_ (I), VMG_CB_FLAGS((OI), 3), (S), (A1), (A2), (A3))
1303
1304 /* ... Default no-op magic callback ........................................ */
1305
1306 static int vmg_svt_default_noop(pTHX_ SV *sv, MAGIC *mg) {
1307  return 0;
1308 }
1309
1310 /* ... get magic ........................................................... */
1311
1312 static int vmg_svt_get(pTHX_ SV *sv, MAGIC *mg) {
1313  const vmg_wizard *w = vmg_wizard_from_mg_nocheck(mg);
1314
1315  return vmg_cb_call1(w->cb_get, w->opinfo, sv, mg->mg_obj);
1316 }
1317
1318 #define vmg_svt_get_noop vmg_svt_default_noop
1319
1320 /* ... set magic ........................................................... */
1321
1322 static int vmg_svt_set(pTHX_ SV *sv, MAGIC *mg) {
1323  const vmg_wizard *w = vmg_wizard_from_mg_nocheck(mg);
1324
1325  return vmg_cb_call1(w->cb_set, w->opinfo, sv, mg->mg_obj);
1326 }
1327
1328 #define vmg_svt_set_noop vmg_svt_default_noop
1329
1330 /* ... len magic ........................................................... */
1331
1332 static U32 vmg_sv_len(pTHX_ SV *sv) {
1333 #define vmg_sv_len(S) vmg_sv_len(aTHX_ (S))
1334  STRLEN len;
1335 #if VMG_HAS_PERL(5, 9, 3)
1336  const U8 *s = VOID2(const U8 *, VOID2(const void *, SvPV_const(sv, len)));
1337 #else
1338  U8 *s = SvPV(sv, len);
1339 #endif
1340
1341  return DO_UTF8(sv) ? utf8_length(s, s + len) : len;
1342 }
1343
1344 static U32 vmg_svt_len(pTHX_ SV *sv, MAGIC *mg) {
1345  const vmg_wizard *w = vmg_wizard_from_mg_nocheck(mg);
1346  unsigned int opinfo = w->opinfo;
1347  U32 len, ret;
1348  SV *svr;
1349  svtype t = SvTYPE(sv);
1350
1351  dSP;
1352
1353  ENTER;
1354  SAVETMPS;
1355
1356  PUSHMARK(SP);
1357  EXTEND(SP, 3);
1358  PUSHs(sv_2mortal(newRV_inc(sv)));
1359  PUSHs(mg->mg_obj ? mg->mg_obj : &PL_sv_undef);
1360  if (t < SVt_PVAV) {
1361   len = vmg_sv_len(sv);
1362   mPUSHu(len);
1363  } else if (t == SVt_PVAV) {
1364   len = av_len((AV *) sv) + 1;
1365   mPUSHu(len);
1366  } else {
1367   len = 0;
1368   PUSHs(&PL_sv_undef);
1369  }
1370  if (opinfo)
1371   XPUSHs(vmg_op_info(opinfo));
1372  PUTBACK;
1373
1374  vmg_call_sv(w->cb_len, G_SCALAR, 0, NULL);
1375
1376  SPAGAIN;
1377  svr = POPs;
1378  ret = SvOK(svr) ? (U32) SvUV(svr) : len;
1379  if (t == SVt_PVAV)
1380   --ret;
1381  PUTBACK;
1382
1383  FREETMPS;
1384  LEAVE;
1385
1386  return ret;
1387 }
1388
1389 static U32 vmg_svt_len_noop(pTHX_ SV *sv, MAGIC *mg) {
1390  U32    len = 0;
1391  svtype t   = SvTYPE(sv);
1392
1393  if (t < SVt_PVAV) {
1394   len = vmg_sv_len(sv);
1395  } else if (t == SVt_PVAV) {
1396   len = (U32) av_len((AV *) sv);
1397  }
1398
1399  return len;
1400 }
1401
1402 /* ... clear magic ......................................................... */
1403
1404 static int vmg_svt_clear(pTHX_ SV *sv, MAGIC *mg) {
1405  const vmg_wizard *w = vmg_wizard_from_mg_nocheck(mg);
1406  unsigned int flags  = w->opinfo;
1407
1408 #if !VMG_HAS_PERL(5, 12, 0)
1409  flags |= VMG_CB_CALL_GUARD;
1410 #endif
1411
1412  return vmg_cb_call1(w->cb_clear, flags, sv, mg->mg_obj);
1413 }
1414
1415 #define vmg_svt_clear_noop vmg_svt_default_noop
1416
1417 /* ... free magic .......................................................... */
1418
1419 #if VMG_PROPAGATE_ERRSV_NEEDS_TRAMPOLINE
1420
1421 static OP *vmg_pp_propagate_errsv(pTHX) {
1422  SVOP *o = cSVOPx(PL_op);
1423
1424  if (o->op_sv) {
1425   sv_setsv(ERRSV, o->op_sv);
1426   SvREFCNT_dec(o->op_sv);
1427   o->op_sv = NULL;
1428  }
1429
1430  return NORMAL;
1431 }
1432
1433 #endif /* VMG_PROPAGATE_ERRSV_NEEDS_TRAMPOLINE */
1434
1435 static int vmg_propagate_errsv_free(pTHX_ SV *sv, MAGIC *mg) {
1436  if (mg->mg_obj)
1437   sv_setsv(ERRSV, mg->mg_obj);
1438
1439  return 0;
1440 }
1441
1442 /* perl is already kind enough to handle the cloning of the mg_obj member,
1443    hence we don't need to define a dup magic callback. */
1444
1445 static MGVTBL vmg_propagate_errsv_vtbl = {
1446  0,                        /* get */
1447  0,                        /* set */
1448  0,                        /* len */
1449  0,                        /* clear */
1450  vmg_propagate_errsv_free, /* free */
1451  0,                        /* copy */
1452  0,                        /* dup */
1453 #if MGf_LOCAL
1454  0,                        /* local */
1455 #endif /* MGf_LOCAL */
1456 };
1457
1458 typedef struct {
1459  SV  *sv;
1460  int  in_eval;
1461  I32  base;
1462 } vmg_svt_free_cleanup_ud;
1463
1464 static int vmg_svt_free_cleanup(pTHX_ void *ud_) {
1465  vmg_svt_free_cleanup_ud *ud = VOID2(vmg_svt_free_cleanup_ud *, ud_);
1466
1467  if (ud->in_eval) {
1468   U32 optype = PL_op ? PL_op->op_type : OP_NULL;
1469
1470   if (optype == OP_LEAVETRY || optype == OP_LEAVEEVAL) {
1471    SV *errsv = newSVsv(ERRSV);
1472
1473    FREETMPS;
1474    LEAVE_SCOPE(ud->base);
1475
1476 #if VMG_PROPAGATE_ERRSV_NEEDS_TRAMPOLINE
1477    if (optype == OP_LEAVETRY) {
1478     dMY_CXT;
1479     PL_op = vmg_trampoline_bump(&MY_CXT.propagate_errsv, errsv, PL_op);
1480    } else if (optype == OP_LEAVEEVAL) {
1481     SV *guard = sv_newmortal();
1482     vmg_sv_magicext(guard, errsv, &vmg_propagate_errsv_vtbl, NULL, 0);
1483    }
1484 #else /* !VMG_PROPAGATE_ERRSV_NEEDS_TRAMPOLINE */
1485 # if !VMG_HAS_PERL(5, 8, 9)
1486    {
1487     SV *guard = sv_newmortal();
1488     vmg_sv_magicext(guard, errsv, &vmg_propagate_errsv_vtbl, NULL, 0);
1489    }
1490 # else
1491    vmg_sv_magicext(ERRSV, errsv, &vmg_propagate_errsv_vtbl, NULL, 0);
1492 # endif
1493 #endif /* VMG_PROPAGATE_ERRSV_NEEDS_TRAMPOLINE */
1494
1495    SAVETMPS;
1496   }
1497
1498   /* Don't propagate */
1499   return 0;
1500  } else {
1501   SV    *sv = ud->sv;
1502   MAGIC *mg;
1503
1504   /* We are about to croak() while sv is being destroyed. Try to clean up
1505    * things a bit. */
1506   mg = SvMAGIC(sv);
1507   if (mg) {
1508    vmg_mg_del(sv, NULL, mg, mg->mg_moremagic);
1509    mg_magical(sv);
1510   }
1511   SvREFCNT_dec(sv);
1512
1513   vmg_dispell_guard_oncroak(aTHX_ NULL);
1514
1515   /* After that, propagate the error upwards. */
1516   return 1;
1517  }
1518 }
1519
1520 static int vmg_svt_free(pTHX_ SV *sv, MAGIC *mg) {
1521  vmg_svt_free_cleanup_ud ud;
1522  const vmg_wizard *w;
1523  int ret = 0;
1524  SV *svr;
1525
1526  dSP;
1527
1528  /* During global destruction, we cannot be sure that the wizard and its free
1529   * callback are still alive. */
1530  if (PL_dirty)
1531   return 0;
1532
1533  w = vmg_wizard_from_mg_nocheck(mg);
1534
1535  /* So that it survives the temp cleanup below */
1536  SvREFCNT_inc_simple_void(sv);
1537
1538 #if !(VMG_HAS_PERL_MAINT(5, 11, 0, 32686) || VMG_HAS_PERL(5, 12, 0))
1539  /* The previous magic tokens were freed but the magic chain wasn't updated, so
1540   * if you access the sv from the callback the old deleted magics will trigger
1541   * and cause memory misreads. Change 32686 solved it that way : */
1542  SvMAGIC_set(sv, mg);
1543 #endif
1544
1545  ud.sv = sv;
1546  if (cxstack_ix < cxstack_max) {
1547   ud.in_eval = (CxTYPE(cxstack + cxstack_ix + 1) == CXt_EVAL);
1548   ud.base    = ud.in_eval ? PL_scopestack[PL_scopestack_ix] : 0;
1549  } else {
1550   ud.in_eval = 0;
1551   ud.base    = 0;
1552  }
1553
1554  ENTER;
1555  SAVETMPS;
1556
1557  PUSHMARK(SP);
1558  EXTEND(SP, 2);
1559  PUSHs(sv_2mortal(newRV_inc(sv)));
1560  PUSHs(mg->mg_obj ? mg->mg_obj : &PL_sv_undef);
1561  if (w->opinfo)
1562   XPUSHs(vmg_op_info(w->opinfo));
1563  PUTBACK;
1564
1565  {
1566   dMY_CXT;
1567   MY_CXT.depth++;
1568   vmg_call_sv(w->cb_free, G_SCALAR, vmg_svt_free_cleanup, &ud);
1569   MY_CXT.depth--;
1570   if (MY_CXT.depth == 0 && MY_CXT.freed_tokens) {
1571    /* Free all the tokens in the chain but the current one (if it's present).
1572     * It will be taken care of by our caller, Perl_mg_free(). */
1573    vmg_magic_chain_free(MY_CXT.freed_tokens, mg);
1574    MY_CXT.freed_tokens = NULL;
1575   }
1576  }
1577
1578  SPAGAIN;
1579  svr = POPs;
1580  if (SvOK(svr))
1581   ret = (int) SvIV(svr);
1582  PUTBACK;
1583
1584  FREETMPS;
1585  LEAVE;
1586
1587  /* Calling SvREFCNT_dec() will trigger destructors in an infinite loop, so
1588   * we have to rely on SvREFCNT() being a lvalue. Heck, even the core does it */
1589  --SvREFCNT(sv);
1590
1591  /* Perl_mg_free will get rid of the magic and decrement mg->mg_obj and
1592   * mg->mg_ptr reference count */
1593  return ret;
1594 }
1595
1596 #define vmg_svt_free_noop vmg_svt_default_noop
1597
1598 #if VMG_HAS_PERL_MAINT(5, 11, 0, 33256) || VMG_HAS_PERL(5, 12, 0)
1599 # define VMG_SVT_COPY_KEYLEN_TYPE I32
1600 #else
1601 # define VMG_SVT_COPY_KEYLEN_TYPE int
1602 #endif
1603
1604 /* ... copy magic .......................................................... */
1605
1606 static int vmg_svt_copy(pTHX_ SV *sv, MAGIC *mg, SV *nsv, const char *key, VMG_SVT_COPY_KEYLEN_TYPE keylen) {
1607  const vmg_wizard *w = vmg_wizard_from_mg_nocheck(mg);
1608  SV *keysv;
1609  int ret;
1610
1611  if (keylen == HEf_SVKEY) {
1612   keysv = (SV *) key;
1613  } else {
1614   keysv = newSVpvn(key, keylen);
1615  }
1616
1617  if (SvTYPE(sv) >= SVt_PVCV)
1618   nsv = sv_2mortal(newRV_inc(nsv));
1619
1620  ret = vmg_cb_call3(w->cb_copy, w->opinfo, sv, mg->mg_obj, keysv, nsv);
1621
1622  if (keylen != HEf_SVKEY) {
1623   SvREFCNT_dec(keysv);
1624  }
1625
1626  return ret;
1627 }
1628
1629 static int vmg_svt_copy_noop(pTHX_ SV *sv, MAGIC *mg, SV *nsv, const char *key, VMG_SVT_COPY_KEYLEN_TYPE keylen) {
1630  return 0;
1631 }
1632
1633 /* ... dup magic ........................................................... */
1634
1635 #if 0
1636 static int vmg_svt_dup(pTHX_ MAGIC *mg, CLONE_PARAMS *param) {
1637  return 0;
1638 }
1639 #define vmg_svt_dup_noop vmg_svt_dup
1640 #endif
1641
1642 /* ... local magic ......................................................... */
1643
1644 #if MGf_LOCAL
1645
1646 static int vmg_svt_local(pTHX_ SV *nsv, MAGIC *mg) {
1647  const vmg_wizard *w = vmg_wizard_from_mg_nocheck(mg);
1648
1649  return vmg_cb_call1(w->cb_local, w->opinfo, nsv, mg->mg_obj);
1650 }
1651
1652 #define vmg_svt_local_noop vmg_svt_default_noop
1653
1654 #endif /* MGf_LOCAL */
1655
1656 /* ... uvar magic .......................................................... */
1657
1658 #if VMG_UVAR
1659
1660 static OP *vmg_pp_reset_rmg(pTHX) {
1661  SVOP *o = cSVOPx(PL_op);
1662
1663  SvRMAGICAL_on(o->op_sv);
1664  o->op_sv = NULL;
1665
1666  return NORMAL;
1667 }
1668
1669 static I32 vmg_svt_val(pTHX_ IV action, SV *sv) {
1670  vmg_uvar_ud *ud;
1671  MAGIC *mg, *umg, *moremagic;
1672  SV *key = NULL, *newkey = NULL;
1673  int tied = 0;
1674
1675  umg = mg_find(sv, PERL_MAGIC_uvar);
1676  /* umg can't be NULL or we wouldn't be there. */
1677  key = umg->mg_obj;
1678  ud  = (vmg_uvar_ud *) umg->mg_ptr;
1679
1680  if (ud->old_uf.uf_val)
1681   ud->old_uf.uf_val(aTHX_ action, sv);
1682  if (ud->old_uf.uf_set)
1683   ud->old_uf.uf_set(aTHX_ action, sv);
1684
1685  for (mg = SvMAGIC(sv); mg; mg = moremagic) {
1686   const vmg_wizard *w;
1687
1688   /* mg may be freed later by the uvar call, so we need to fetch the next
1689    * token before reaching that fateful point. */
1690   moremagic = mg->mg_moremagic;
1691
1692   switch (mg->mg_type) {
1693    case PERL_MAGIC_ext:
1694     break;
1695    case PERL_MAGIC_tied:
1696     ++tied;
1697     continue;
1698    default:
1699     continue;
1700   }
1701
1702   w = vmg_wizard_from_mg(mg);
1703   if (!w)
1704    continue;
1705
1706   switch (w->uvar) {
1707    case 0:
1708     continue;
1709    case 2:
1710     if (!newkey)
1711      newkey = key = umg->mg_obj = sv_mortalcopy(umg->mg_obj);
1712   }
1713
1714   switch (action
1715              & (HV_FETCH_ISSTORE|HV_FETCH_ISEXISTS|HV_FETCH_LVALUE|HV_DELETE)) {
1716    case 0:
1717     if (w->cb_fetch)
1718      vmg_cb_call2(w->cb_fetch, w->opinfo | VMG_CB_CALL_GUARD, sv,
1719                                mg->mg_obj, key);
1720     break;
1721    case HV_FETCH_ISSTORE:
1722    case HV_FETCH_LVALUE:
1723    case (HV_FETCH_ISSTORE|HV_FETCH_LVALUE):
1724     if (w->cb_store)
1725      vmg_cb_call2(w->cb_store, w->opinfo | VMG_CB_CALL_GUARD, sv,
1726                                mg->mg_obj, key);
1727     break;
1728    case HV_FETCH_ISEXISTS:
1729     if (w->cb_exists)
1730      vmg_cb_call2(w->cb_exists, w->opinfo | VMG_CB_CALL_GUARD, sv,
1731                                 mg->mg_obj, key);
1732     break;
1733    case HV_DELETE:
1734     if (w->cb_delete)
1735      vmg_cb_call2(w->cb_delete, w->opinfo | VMG_CB_CALL_GUARD, sv,
1736                                 mg->mg_obj, key);
1737     break;
1738   }
1739  }
1740
1741  if (SvRMAGICAL(sv) && !tied && !(action & (HV_FETCH_ISSTORE|HV_DELETE))) {
1742   /* Temporarily hide the RMAGICAL flag of the hash so it isn't wrongly
1743    * mistaken for a tied hash by the rest of hv_common. It will be reset by
1744    * the op_ppaddr of a new fake op injected between the current and the next
1745    * one. */
1746
1747 #if VMG_RESET_RMG_NEEDS_TRAMPOLINE
1748
1749   dMY_CXT;
1750
1751   PL_op = vmg_trampoline_bump(&MY_CXT.reset_rmg, sv, PL_op);
1752
1753 #else /* !VMG_RESET_RMG_NEEDS_TRAMPOLINE */
1754
1755   OP   *nop  = PL_op->op_next;
1756   SVOP *svop = NULL;
1757
1758   if (nop && nop->op_ppaddr == vmg_pp_reset_rmg) {
1759    svop = (SVOP *) nop;
1760   } else {
1761    NewOp(1101, svop, 1, SVOP);
1762    svop->op_type    = OP_STUB;
1763    svop->op_ppaddr  = vmg_pp_reset_rmg;
1764    svop->op_next    = nop;
1765    svop->op_flags   = 0;
1766    svop->op_private = 0;
1767
1768    PL_op->op_next = (OP *) svop;
1769   }
1770
1771   svop->op_sv = sv;
1772
1773 #endif /* VMG_RESET_RMG_NEEDS_TRAMPOLINE */
1774
1775   SvRMAGICAL_off(sv);
1776  }
1777
1778  return 0;
1779 }
1780
1781 #endif /* VMG_UVAR */
1782
1783 /* --- Module setup/teardown ----------------------------------------------- */
1784
1785 #if VMG_THREADSAFE
1786
1787 static I32 vmg_loaded = 0;
1788
1789 /* We must use preexistent global mutexes or we will never be able to destroy
1790  * them. */
1791 # if VMG_HAS_PERL(5, 9, 3)
1792 #  define VMG_LOADED_LOCK   MUTEX_LOCK(&PL_my_ctx_mutex)
1793 #  define VMG_LOADED_UNLOCK MUTEX_UNLOCK(&PL_my_ctx_mutex)
1794 # else
1795 #  define VMG_LOADED_LOCK   OP_REFCNT_LOCK
1796 #  define VMG_LOADED_UNLOCK OP_REFCNT_UNLOCK
1797 # endif
1798
1799 static void vmg_global_teardown_late_locked(pTHX) {
1800 #define vmg_global_teardown_late_locked() vmg_global_teardown_late_locked(aTHX)
1801  MUTEX_DESTROY(&vmg_op_name_init_mutex);
1802  MUTEX_DESTROY(&vmg_vtable_refcount_mutex);
1803
1804  return;
1805 }
1806
1807 static int vmg_global_teardown_free(pTHX_ SV *sv, MAGIC *mg) {
1808  VMG_LOADED_LOCK;
1809
1810  if (vmg_loaded == 0)
1811   vmg_global_teardown_late_locked();
1812
1813  VMG_LOADED_UNLOCK;
1814
1815  return 0;
1816 }
1817
1818 static MGVTBL vmg_global_teardown_vtbl = {
1819  0,
1820  0,
1821  0,
1822  0,
1823  vmg_global_teardown_free
1824 #if MGf_COPY
1825  , 0
1826 #endif
1827 #if MGf_DUP
1828  , 0
1829 #endif
1830 #if MGf_LOCAL
1831  , 0
1832 #endif
1833 };
1834
1835 static signed char vmg_destruct_level(pTHX) {
1836 #define vmg_destruct_level() vmg_destruct_level(aTHX)
1837  signed char lvl;
1838
1839  lvl = PL_perl_destruct_level;
1840
1841 #ifdef DEBUGGING
1842  {
1843   const char *s = PerlEnv_getenv("PERL_DESTRUCT_LEVEL");
1844   if (s) {
1845    int i;
1846 #if VMG_HAS_PERL(5, 21, 3)
1847    if (strEQ(s, "-1")) {
1848     i = -1;
1849    } else {
1850 # if VMG_HAS_PERL(5, 21, 10)
1851     UV uv;
1852     if (Perl_grok_atoUV(s, &uv, NULL) && uv <= INT_MAX)
1853      i = (int) uv;
1854     else
1855      i = 0;
1856 # else /* VMG_HAS_PERL(5, 21, 3) && !VMG_HAS_PERL(5, 21, 10) */
1857     i = Perl_grok_atou(s, NULL);
1858 # endif
1859    }
1860 #else /* !VMG_HAS_PERL(5, 21, 3) */
1861    i = atoi(s);
1862 #endif
1863    if (lvl < i)
1864     lvl = i;
1865   }
1866  }
1867 #endif
1868
1869  return lvl;
1870 }
1871
1872 #endif /* VMG_THREADSAFE */
1873
1874 static void vmg_teardown(pTHX_ void *param) {
1875  dMY_CXT;
1876
1877 #if VMG_THREADSAFE
1878  VMG_LOADED_LOCK;
1879
1880  if (vmg_loaded == 1) {
1881   vmg_loaded = 0;
1882   if (vmg_destruct_level() == 0) {
1883    vmg_global_teardown_late_locked();
1884   } else {
1885    if (!PL_strtab)
1886     PL_strtab = newHV();
1887    vmg_sv_magicext((SV *) PL_strtab, NULL, &vmg_global_teardown_vtbl, NULL, 0);
1888   }
1889  } else {
1890   VMG_ASSERT(vmg_loaded > 1);
1891   --vmg_loaded;
1892  }
1893
1894  VMG_LOADED_UNLOCK;
1895 #endif
1896
1897  if (MY_CXT.depth == 0 && MY_CXT.freed_tokens) {
1898   vmg_magic_chain_free(MY_CXT.freed_tokens, NULL);
1899   MY_CXT.freed_tokens = NULL;
1900  }
1901
1902  return;
1903 }
1904
1905 static void vmg_setup(pTHX) {
1906 #define vmg_setup() vmg_setup(aTHX)
1907  HV *stash;
1908  int c;
1909  MY_CXT_INIT;
1910
1911 #if VMG_THREADSAFE
1912  VMG_LOADED_LOCK;
1913
1914  if (vmg_loaded == 0) {
1915   MUTEX_INIT(&vmg_vtable_refcount_mutex);
1916   MUTEX_INIT(&vmg_op_name_init_mutex);
1917   vmg_loaded = 1;
1918  } else {
1919   VMG_ASSERT(vmg_loaded > 0);
1920   ++vmg_loaded;
1921  }
1922
1923  VMG_LOADED_UNLOCK;
1924 #endif
1925
1926  for (c = OPc_NULL; c < OPc_MAX; ++c)
1927   MY_CXT.b__op_stashes[c] = NULL;
1928
1929  MY_CXT.depth        = 0;
1930  MY_CXT.freed_tokens = NULL;
1931
1932 #if VMG_PROPAGATE_ERRSV_NEEDS_TRAMPOLINE
1933  vmg_trampoline_init(&MY_CXT.propagate_errsv, vmg_pp_propagate_errsv);
1934 #endif
1935 #if VMG_RESET_RMG_NEEDS_TRAMPOLINE
1936  vmg_trampoline_init(&MY_CXT.reset_rmg, vmg_pp_reset_rmg);
1937 #endif
1938
1939  stash = gv_stashpv(__PACKAGE__, 1);
1940  newCONSTSUB(stash, "MGf_COPY",  newSVuv(MGf_COPY));
1941  newCONSTSUB(stash, "MGf_DUP",   newSVuv(MGf_DUP));
1942  newCONSTSUB(stash, "MGf_LOCAL", newSVuv(MGf_LOCAL));
1943  newCONSTSUB(stash, "VMG_UVAR",  newSVuv(VMG_UVAR));
1944  newCONSTSUB(stash, "VMG_COMPAT_SCALAR_LENGTH_NOLEN",
1945                     newSVuv(VMG_COMPAT_SCALAR_LENGTH_NOLEN));
1946  newCONSTSUB(stash, "VMG_COMPAT_SCALAR_NOLEN",
1947                     newSVuv(VMG_COMPAT_SCALAR_NOLEN));
1948  newCONSTSUB(stash, "VMG_COMPAT_ARRAY_PUSH_NOLEN",
1949                     newSVuv(VMG_COMPAT_ARRAY_PUSH_NOLEN));
1950  newCONSTSUB(stash, "VMG_COMPAT_ARRAY_PUSH_NOLEN_VOID",
1951                     newSVuv(VMG_COMPAT_ARRAY_PUSH_NOLEN_VOID));
1952  newCONSTSUB(stash, "VMG_COMPAT_ARRAY_UNSHIFT_NOLEN_VOID",
1953                     newSVuv(VMG_COMPAT_ARRAY_UNSHIFT_NOLEN_VOID));
1954  newCONSTSUB(stash, "VMG_COMPAT_ARRAY_UNDEF_CLEAR",
1955                     newSVuv(VMG_COMPAT_ARRAY_UNDEF_CLEAR));
1956  newCONSTSUB(stash, "VMG_COMPAT_HASH_DELETE_NOUVAR_VOID",
1957                     newSVuv(VMG_COMPAT_HASH_DELETE_NOUVAR_VOID));
1958  newCONSTSUB(stash, "VMG_COMPAT_CODE_COPY_CLONE",
1959                     newSVuv(VMG_COMPAT_CODE_COPY_CLONE));
1960  newCONSTSUB(stash, "VMG_COMPAT_GLOB_GET", newSVuv(VMG_COMPAT_GLOB_GET));
1961  newCONSTSUB(stash, "VMG_PERL_PATCHLEVEL", newSVuv(VMG_PERL_PATCHLEVEL));
1962  newCONSTSUB(stash, "VMG_THREADSAFE",      newSVuv(VMG_THREADSAFE));
1963  newCONSTSUB(stash, "VMG_FORKSAFE",        newSVuv(VMG_FORKSAFE));
1964  newCONSTSUB(stash, "VMG_OP_INFO_NAME",    newSVuv(VMG_OP_INFO_NAME));
1965  newCONSTSUB(stash, "VMG_OP_INFO_OBJECT",  newSVuv(VMG_OP_INFO_OBJECT));
1966
1967  call_atexit(vmg_teardown, NULL);
1968
1969  return;
1970 }
1971
1972 /* --- Macros for the XS section ------------------------------------------- */
1973
1974 #ifdef CvISXSUB
1975 # define VMG_CVOK(C) \
1976    ((CvISXSUB(C) ? (void *) CvXSUB(C) : (void *) CvROOT(C)) ? 1 : 0)
1977 #else
1978 # define VMG_CVOK(C) (CvROOT(C) || CvXSUB(C))
1979 #endif
1980
1981 #define VMG_CBOK(S) ((SvTYPE(S) == SVt_PVCV) ? VMG_CVOK(S) : SvOK(S))
1982
1983 #define VMG_SET_CB(S, N) {       \
1984  SV *cb = (S);                   \
1985  if (SvOK(cb) && SvROK(cb)) {    \
1986   cb = SvRV(cb);                 \
1987   if (VMG_CBOK(cb))              \
1988    SvREFCNT_inc_simple_void(cb); \
1989   else                           \
1990    cb = NULL;                    \
1991  } else {                        \
1992   cb = NULL;                     \
1993  }                               \
1994  w->cb_ ## N = cb;               \
1995 }
1996
1997 #define VMG_SET_SVT_CB(S, N) {   \
1998  SV *cb = (S);                   \
1999  if (SvOK(cb) && SvROK(cb)) {    \
2000   cb = SvRV(cb);                 \
2001   if (VMG_CBOK(cb)) {            \
2002    t->svt_ ## N = vmg_svt_ ## N; \
2003    SvREFCNT_inc_simple_void(cb); \
2004   } else {                       \
2005    t->svt_ ## N = vmg_svt_ ## N ## _noop; \
2006    cb           = NULL;          \
2007   }                              \
2008  } else {                        \
2009   t->svt_ ## N = NULL;           \
2010   cb           = NULL;           \
2011  }                               \
2012  w->cb_ ## N = cb;               \
2013 }
2014
2015 /* --- XS ------------------------------------------------------------------ */
2016
2017 MODULE = Variable::Magic            PACKAGE = Variable::Magic
2018
2019 PROTOTYPES: ENABLE
2020
2021 BOOT:
2022 {
2023  vmg_setup();
2024 }
2025
2026 #if VMG_THREADSAFE
2027
2028 void
2029 CLONE(...)
2030 PROTOTYPE: DISABLE
2031 PREINIT:
2032  U32 had_b__op_stash = 0;
2033  I32 old_depth;
2034  int c;
2035 PPCODE:
2036  {
2037   dMY_CXT;
2038   for (c = OPc_NULL; c < OPc_MAX; ++c) {
2039    if (MY_CXT.b__op_stashes[c])
2040     had_b__op_stash |= (((U32) 1) << c);
2041   }
2042   old_depth = MY_CXT.depth;
2043  }
2044  {
2045   MY_CXT_CLONE;
2046   for (c = OPc_NULL; c < OPc_MAX; ++c) {
2047    MY_CXT.b__op_stashes[c] = (had_b__op_stash & (((U32) 1) << c))
2048                               ? gv_stashpv(vmg_opclassnames[c], 1) : NULL;
2049   }
2050   MY_CXT.depth        = old_depth;
2051   MY_CXT.freed_tokens = NULL;
2052   VMG_LOADED_LOCK;
2053   VMG_ASSERT(vmg_loaded > 0);
2054   ++vmg_loaded;
2055   VMG_LOADED_UNLOCK;
2056  }
2057  XSRETURN(0);
2058
2059 #endif /* VMG_THREADSAFE */
2060
2061 SV *_wizard(...)
2062 PROTOTYPE: DISABLE
2063 PREINIT:
2064  vmg_wizard *w;
2065  MGVTBL *t;
2066  SV *op_info, *copy_key;
2067  I32 i = 0;
2068 CODE:
2069  if (items != 9
2070 #if MGf_LOCAL
2071               + 1
2072 #endif /* MGf_LOCAL */
2073 #if VMG_UVAR
2074               + 5
2075 #endif /* VMG_UVAR */
2076               ) { croak(vmg_wrongargnum); }
2077
2078  op_info = ST(i++);
2079  w = vmg_wizard_alloc(SvOK(op_info) ? SvUV(op_info) : 0);
2080  t = vmg_vtable_vtbl(w->vtable);
2081
2082  VMG_SET_CB(ST(i++), data);
2083
2084  VMG_SET_SVT_CB(ST(i++), get);
2085  VMG_SET_SVT_CB(ST(i++), set);
2086  VMG_SET_SVT_CB(ST(i++), len);
2087  VMG_SET_SVT_CB(ST(i++), clear);
2088  VMG_SET_SVT_CB(ST(i++), free);
2089  VMG_SET_SVT_CB(ST(i++), copy);
2090  /* VMG_SET_SVT_CB(ST(i++), dup); */
2091  i++;
2092  t->svt_dup = NULL;
2093  w->cb_dup  = NULL;
2094 #if MGf_LOCAL
2095  VMG_SET_SVT_CB(ST(i++), local);
2096 #endif /* MGf_LOCAL */
2097 #if VMG_UVAR
2098  VMG_SET_CB(ST(i++), fetch);
2099  VMG_SET_CB(ST(i++), store);
2100  VMG_SET_CB(ST(i++), exists);
2101  VMG_SET_CB(ST(i++), delete);
2102
2103  copy_key = ST(i++);
2104  if (w->cb_fetch || w->cb_store || w->cb_exists || w->cb_delete)
2105   w->uvar = SvTRUE(copy_key) ? 2 : 1;
2106 #endif /* VMG_UVAR */
2107
2108  RETVAL = newRV_noinc(vmg_wizard_sv_new(w));
2109 OUTPUT:
2110  RETVAL
2111
2112 SV *cast(SV *sv, SV *wiz, ...)
2113 PROTOTYPE: \[$@%&*]$@
2114 PREINIT:
2115  const vmg_wizard *w = NULL;
2116  SV **args = NULL;
2117  I32 i = 0;
2118 CODE:
2119  if (items > 2) {
2120   i = items - 2;
2121   args = &ST(2);
2122  }
2123  if (SvROK(wiz)) {
2124   wiz = SvRV_const(wiz);
2125   w   = vmg_wizard_from_sv(wiz);
2126  }
2127  if (!w)
2128   croak(vmg_invalid_wiz);
2129  RETVAL = newSVuv(vmg_cast(SvRV(sv), w, wiz, args, i));
2130 OUTPUT:
2131  RETVAL
2132
2133 void
2134 getdata(SV *sv, SV *wiz)
2135 PROTOTYPE: \[$@%&*]$
2136 PREINIT:
2137  const vmg_wizard *w = NULL;
2138  SV *data;
2139 PPCODE:
2140  if (SvROK(wiz))
2141   w = vmg_wizard_from_sv(SvRV_const(wiz));
2142  if (!w)
2143   croak(vmg_invalid_wiz);
2144  data = vmg_data_get(SvRV(sv), w);
2145  if (!data)
2146   XSRETURN_EMPTY;
2147  ST(0) = data;
2148  XSRETURN(1);
2149
2150 SV *dispell(SV *sv, SV *wiz)
2151 PROTOTYPE: \[$@%&*]$
2152 PREINIT:
2153  const vmg_wizard *w = NULL;
2154 CODE:
2155  if (SvROK(wiz))
2156   w = vmg_wizard_from_sv(SvRV_const(wiz));
2157  if (!w)
2158   croak(vmg_invalid_wiz);
2159  RETVAL = newSVuv(vmg_dispell(SvRV(sv), w));
2160 OUTPUT:
2161  RETVAL