]> git.vpit.fr Git - perl/modules/Variable-Magic.git/blob - Magic.xs
Handle self destruction manually
[perl/modules/Variable-Magic.git] / Magic.xs
1 /* This file is part of the Variable::Magic Perl module.
2  * See http://search.cpan.org/dist/Variable-Magic/ */
3
4 #include <stdarg.h> /* <va_list>, va_{start,arg,end}, ... */
5
6 #include <stdio.h>  /* sprintf() */
7
8 #define PERL_NO_GET_CONTEXT
9 #include "EXTERN.h"
10 #include "perl.h"
11 #include "XSUB.h"
12
13 /* --- XS helpers ---------------------------------------------------------- */
14
15 #define XSH_PACKAGE "Variable::Magic"
16
17 #include "xsh/caps.h"
18 #include "xsh/util.h"
19
20 /* ... Features ............................................................ */
21
22 /* uvar magic and Hash::Util::FieldHash were commited with 28419, but we only
23  * enable them on 5.10 */
24 #if XSH_HAS_PERL(5, 10, 0)
25 # define VMG_UVAR 1
26 #else
27 # define VMG_UVAR 0
28 #endif
29
30 #if XSH_HAS_PERL_MAINT(5, 11, 0, 32969) || XSH_HAS_PERL(5, 12, 0)
31 # define VMG_COMPAT_SCALAR_LENGTH_NOLEN 1
32 #else
33 # define VMG_COMPAT_SCALAR_LENGTH_NOLEN 0
34 #endif
35
36 #if XSH_HAS_PERL(5, 17, 4)
37 # define VMG_COMPAT_SCALAR_NOLEN 1
38 #else
39 # define VMG_COMPAT_SCALAR_NOLEN 0
40 #endif
41
42 /* Applied to dev-5.9 as 25854, integrated to maint-5.8 as 28160, partially
43  * reverted to dev-5.11 as 9cdcb38b */
44 #if XSH_HAS_PERL_MAINT(5, 8, 9, 28160) || XSH_HAS_PERL_MAINT(5, 9, 3, 25854) || XSH_HAS_PERL(5, 10, 0)
45 # ifndef VMG_COMPAT_ARRAY_PUSH_NOLEN
46 #  if XSH_HAS_PERL(5, 11, 0)
47 #   define VMG_COMPAT_ARRAY_PUSH_NOLEN 0
48 #  else
49 #   define VMG_COMPAT_ARRAY_PUSH_NOLEN 1
50 #  endif
51 # endif
52 # ifndef VMG_COMPAT_ARRAY_PUSH_NOLEN_VOID
53 #  define VMG_COMPAT_ARRAY_PUSH_NOLEN_VOID 1
54 # endif
55 #else
56 # ifndef VMG_COMPAT_ARRAY_PUSH_NOLEN
57 #  define VMG_COMPAT_ARRAY_PUSH_NOLEN 0
58 # endif
59 # ifndef VMG_COMPAT_ARRAY_PUSH_NOLEN_VOID
60 #  define VMG_COMPAT_ARRAY_PUSH_NOLEN_VOID 0
61 # endif
62 #endif
63
64 /* Applied to dev-5.11 as 34908 */
65 #if XSH_HAS_PERL_MAINT(5, 11, 0, 34908) || XSH_HAS_PERL(5, 12, 0)
66 # define VMG_COMPAT_ARRAY_UNSHIFT_NOLEN_VOID 1
67 #else
68 # define VMG_COMPAT_ARRAY_UNSHIFT_NOLEN_VOID 0
69 #endif
70
71 /* Applied to dev-5.9 as 31473 (see #43357), integrated to maint-5.8 as 32542 */
72 #if XSH_HAS_PERL_MAINT(5, 8, 9, 32542) || XSH_HAS_PERL_MAINT(5, 9, 5, 31473) || XSH_HAS_PERL(5, 10, 0)
73 # define VMG_COMPAT_ARRAY_UNDEF_CLEAR 1
74 #else
75 # define VMG_COMPAT_ARRAY_UNDEF_CLEAR 0
76 #endif
77
78 #if XSH_HAS_PERL(5, 11, 0)
79 # define VMG_COMPAT_HASH_DELETE_NOUVAR_VOID 1
80 #else
81 # define VMG_COMPAT_HASH_DELETE_NOUVAR_VOID 0
82 #endif
83
84 #if XSH_HAS_PERL(5, 17, 0)
85 # define VMG_COMPAT_CODE_COPY_CLONE 1
86 #else
87 # define VMG_COMPAT_CODE_COPY_CLONE 0
88 #endif
89
90 #if XSH_HAS_PERL(5, 13, 2)
91 # define VMG_COMPAT_GLOB_GET 1
92 #else
93 # define VMG_COMPAT_GLOB_GET 0
94 #endif
95
96 /* ... Trampoline ops ...................................................... */
97
98 #define VMG_PROPAGATE_ERRSV_NEEDS_TRAMPOLINE (XSH_HAS_PERL(5, 10, 0) && !XSH_HAS_PERL(5, 10, 1))
99
100 /* NewOp() isn't public in perl 5.8.0. */
101 #define VMG_RESET_RMG_NEEDS_TRAMPOLINE (VMG_UVAR && (XSH_THREADSAFE || !XSH_HAS_PERL(5, 8, 1)))
102
103 #define VMG_NEEDS_TRAMPOLINE VMG_PROPAGATE_ERRSV_NEEDS_TRAMPOLINE || VMG_RESET_RMG_NEEDS_TRAMPOLINE
104
105 #if VMG_NEEDS_TRAMPOLINE
106
107 typedef struct {
108  OP   temp;
109  SVOP target;
110 } vmg_trampoline;
111
112 static void vmg_trampoline_init(vmg_trampoline *t, OP *(*cb)(pTHX)) {
113  t->temp.op_type    = OP_STUB;
114  t->temp.op_ppaddr  = 0;
115  t->temp.op_next    = (OP *) &t->target;
116  t->temp.op_flags   = 0;
117  t->temp.op_private = 0;
118
119  t->target.op_type    = OP_STUB;
120  t->target.op_ppaddr  = cb;
121  t->target.op_next    = NULL;
122  t->target.op_flags   = 0;
123  t->target.op_private = 0;
124  t->target.op_sv      = NULL;
125 }
126
127 static OP *vmg_trampoline_bump(pTHX_ vmg_trampoline *t, SV *sv, OP *o) {
128 #define vmg_trampoline_bump(T, S, O) vmg_trampoline_bump(aTHX_ (T), (S), (O))
129  t->temp         = *o;
130  t->temp.op_next = (OP *) &t->target;
131
132  t->target.op_sv   = sv;
133  t->target.op_next = o->op_next;
134
135  return &t->temp;
136 }
137
138 #endif /* VMG_NEEDS_TRAMPOLINE */
139
140 /* --- Compatibility ------------------------------------------------------- */
141
142 #ifndef Newx
143 # define Newx(v, n, c) New(0, v, n, c)
144 #endif
145
146 #ifndef SvMAGIC_set
147 # define SvMAGIC_set(sv, val) (SvMAGIC(sv) = (val))
148 #endif
149
150 #ifndef SvRV_const
151 # define SvRV_const(sv) SvRV((SV *) sv)
152 #endif
153
154 #ifndef SvREFCNT_inc_simple_void
155 # define SvREFCNT_inc_simple_void(sv) ((void) SvREFCNT_inc(sv))
156 #endif
157
158 #ifndef SvREFCNT_dec_NN
159 # define SvREFCNT_dec_NN(sv) ((void) SvREFCNT_dec(sv))
160 #endif
161
162 #ifndef mPUSHu
163 # define mPUSHu(U) PUSHs(sv_2mortal(newSVuv(U)))
164 #endif
165
166 #ifndef PERL_MAGIC_ext
167 # define PERL_MAGIC_ext '~'
168 #endif
169
170 #ifndef PERL_MAGIC_tied
171 # define PERL_MAGIC_tied 'P'
172 #endif
173
174 #ifndef MGf_LOCAL
175 # define MGf_LOCAL 0
176 #endif
177
178 #ifndef IN_PERL_COMPILETIME
179 # define IN_PERL_COMPILETIME (PL_curcop == &PL_compiling)
180 #endif
181
182 #ifndef OP_NAME
183 # define OP_NAME(O) (PL_op_name[(O)->op_type])
184 #endif
185
186 #ifndef OP_CLASS
187 # define OP_CLASS(O) (PL_opargs[(O)->op_type] & OA_CLASS_MASK)
188 #endif
189
190 /* ... Bug-free mg_magical ................................................. */
191
192 /* See the discussion at http://www.xray.mpe.mpg.de/mailing-lists/perl5-porters/2008-01/msg00036.html */
193
194 #if XSH_HAS_PERL(5, 11, 3)
195
196 #define vmg_mg_magical(S) mg_magical(S)
197
198 #else
199
200 static void vmg_mg_magical(SV *sv) {
201  const MAGIC *mg;
202
203  SvMAGICAL_off(sv);
204  if ((mg = SvMAGIC(sv))) {
205   do {
206    const MGVTBL* const vtbl = mg->mg_virtual;
207    if (vtbl) {
208     if (vtbl->svt_get && !(mg->mg_flags & MGf_GSKIP))
209      SvGMAGICAL_on(sv);
210     if (vtbl->svt_set)
211      SvSMAGICAL_on(sv);
212     if (vtbl->svt_clear)
213      SvRMAGICAL_on(sv);
214    }
215   } while ((mg = mg->mg_moremagic));
216   if (!(SvFLAGS(sv) & (SVs_GMG|SVs_SMG)))
217    SvRMAGICAL_on(sv);
218  }
219 }
220
221 #endif
222
223 /* ... Cleaner version of sv_magicext() .................................... */
224
225 static MAGIC *vmg_sv_magicext(pTHX_ SV *sv, SV *obj, const MGVTBL *vtbl, const void *ptr, I32 len) {
226 #define vmg_sv_magicext(S, O, V, P, L) vmg_sv_magicext(aTHX_ (S), (O), (V), (P), (L))
227  MAGIC *mg;
228
229  mg = sv_magicext(sv, obj, PERL_MAGIC_ext, vtbl, ptr, len);
230  if (!mg)
231   return NULL;
232
233  mg->mg_private = 0;
234
235  if (vtbl->svt_copy)
236   mg->mg_flags |= MGf_COPY;
237 #if MGf_DUP
238  if (vtbl->svt_dup)
239   mg->mg_flags |= MGf_DUP;
240 #endif /* MGf_DUP */
241 #if MGf_LOCAL
242  if (vtbl->svt_local)
243   mg->mg_flags |= MGf_LOCAL;
244 #endif /* MGf_LOCAL */
245
246  if (mg->mg_flags & MGf_REFCOUNTED)
247   SvREFCNT_dec(obj);
248
249  return mg;
250 }
251
252 /* ... Safe version of call_sv() ........................................... */
253
254 static I32 vmg_call_sv(pTHX_ SV *sv, I32 flags, int (*cleanup)(pTHX_ void *), void *ud) {
255 #define vmg_call_sv(S, F, C, U) vmg_call_sv(aTHX_ (S), (F), (C), (U))
256  I32 ret;
257  SV *old_err = NULL;
258
259  if (SvTRUE(ERRSV)) {
260   old_err = newSVsv(ERRSV);
261   sv_setsv(ERRSV, &PL_sv_undef);
262  }
263
264  ret = call_sv(sv, flags | G_EVAL);
265
266  if (SvTRUE(ERRSV)) {
267   SvREFCNT_dec(old_err);
268
269   if (IN_PERL_COMPILETIME) {
270    if (!PL_in_eval) {
271     if (PL_errors)
272      sv_catsv(PL_errors, ERRSV);
273     else
274      Perl_warn(aTHX_ "%s", SvPV_nolen(ERRSV));
275     SvCUR_set(ERRSV, 0);
276    }
277 #if XSH_HAS_PERL(5, 10, 0) || defined(PL_parser)
278    if (PL_parser)
279     ++PL_parser->error_count;
280 #elif defined(PL_error_count)
281    ++PL_error_count;
282 #else
283    ++PL_Ierror_count;
284 #endif
285   } else {
286    if (!cleanup || cleanup(aTHX_ ud))
287     croak(NULL);
288   }
289  } else {
290   if (old_err) {
291    sv_setsv(ERRSV, old_err);
292    SvREFCNT_dec(old_err);
293   }
294  }
295
296  return ret;
297 }
298
299 /* --- Stolen chunk of B --------------------------------------------------- */
300
301 typedef enum {
302  OPc_NULL,
303  OPc_BASEOP,
304  OPc_UNOP,
305  OPc_BINOP,
306  OPc_LOGOP,
307  OPc_LISTOP,
308  OPc_PMOP,
309  OPc_SVOP,
310  OPc_PADOP,
311  OPc_PVOP,
312  OPc_LOOP,
313  OPc_COP,
314 #if XSH_HAS_PERL(5, 21, 5)
315  OPc_METHOP,
316 #endif
317 #if XSH_HAS_PERL(5, 21, 7)
318  OPc_UNOP_AUX,
319 #endif
320  OPc_MAX
321 } opclass;
322
323 static const char *const vmg_opclassnames[] = {
324  "B::NULL",
325  "B::OP",
326  "B::UNOP",
327  "B::BINOP",
328  "B::LOGOP",
329  "B::LISTOP",
330  "B::PMOP",
331  "B::SVOP",
332  "B::PADOP",
333  "B::PVOP",
334  "B::LOOP",
335  "B::COP",
336 #if XSH_HAS_PERL(5, 21, 5)
337  "B::METHOP",
338 #endif
339 #if XSH_HAS_PERL(5, 21, 7)
340  "B::UNOP_AUX",
341 #endif
342  NULL
343 };
344
345 static opclass vmg_opclass(pTHX_ const OP *o) {
346 #define vmg_opclass(O) vmg_opclass(aTHX_ (O))
347 #if 0
348  if (!o)
349   return OPc_NULL;
350 #endif
351
352  if (o->op_type == 0) {
353 #if XSH_HAS_PERL(5, 21, 7)
354   if (o->op_targ == OP_NEXTSTATE || o->op_targ == OP_DBSTATE)
355    return OPc_COP;
356 #endif
357   return (o->op_flags & OPf_KIDS) ? OPc_UNOP : OPc_BASEOP;
358  }
359
360  if (o->op_type == OP_SASSIGN)
361   return ((o->op_private & OPpASSIGN_BACKWARDS) ? OPc_UNOP : OPc_BINOP);
362
363  if (o->op_type == OP_AELEMFAST) {
364 #if PERL_VERSION <= 14
365   if (o->op_flags & OPf_SPECIAL)
366    return OPc_BASEOP;
367   else
368 #endif
369 #ifdef USE_ITHREADS
370    return OPc_PADOP;
371 #else
372    return OPc_SVOP;
373 #endif
374  }
375
376 #ifdef USE_ITHREADS
377  if (o->op_type == OP_GV || o->op_type == OP_GVSV || o->op_type == OP_RCATLINE)
378   return OPc_PADOP;
379 #endif
380
381  switch (OP_CLASS(o)) {
382   case OA_BASEOP:
383    return OPc_BASEOP;
384   case OA_UNOP:
385    return OPc_UNOP;
386   case OA_BINOP:
387    return OPc_BINOP;
388   case OA_LOGOP:
389    return OPc_LOGOP;
390   case OA_LISTOP:
391    return OPc_LISTOP;
392   case OA_PMOP:
393    return OPc_PMOP;
394   case OA_SVOP:
395    return OPc_SVOP;
396   case OA_PADOP:
397    return OPc_PADOP;
398   case OA_PVOP_OR_SVOP:
399    return (
400 #if XSH_HAS_PERL(5, 13, 7)
401            (o->op_type != OP_CUSTOM) &&
402 #endif
403            (o->op_private & (OPpTRANS_TO_UTF|OPpTRANS_FROM_UTF)))
404 #if defined(USE_ITHREADS) && XSH_HAS_PERL(5, 8, 9)
405            ? OPc_PADOP : OPc_PVOP;
406 #else
407            ? OPc_SVOP : OPc_PVOP;
408 #endif
409   case OA_LOOP:
410    return OPc_LOOP;
411   case OA_COP:
412    return OPc_COP;
413   case OA_BASEOP_OR_UNOP:
414    return (o->op_flags & OPf_KIDS) ? OPc_UNOP : OPc_BASEOP;
415   case OA_FILESTATOP:
416    return ((o->op_flags & OPf_KIDS) ? OPc_UNOP :
417 #ifdef USE_ITHREADS
418            (o->op_flags & OPf_REF) ? OPc_PADOP : OPc_BASEOP);
419 #else
420            (o->op_flags & OPf_REF) ? OPc_SVOP : OPc_BASEOP);
421 #endif
422   case OA_LOOPEXOP:
423    if (o->op_flags & OPf_STACKED)
424     return OPc_UNOP;
425    else if (o->op_flags & OPf_SPECIAL)
426     return OPc_BASEOP;
427    else
428     return OPc_PVOP;
429 #if XSH_HAS_PERL(5, 21, 5)
430   case OA_METHOP:
431    return OPc_METHOP;
432 #endif
433 #if XSH_HAS_PERL(5, 21, 7)
434   case OA_UNOP_AUX:
435    return OPc_UNOP_AUX;
436 #endif
437  }
438
439  return OPc_BASEOP;
440 }
441
442 /* --- Error messages ------------------------------------------------------ */
443
444 static const char vmg_invalid_wiz[] = "Invalid wizard object";
445 static const char vmg_wrongargnum[] = "Wrong number of arguments";
446
447 /* --- Thread-local storage ------------------------------------------------ */
448
449 typedef struct {
450  HV             *b__op_stashes[OPc_MAX];
451  I32             depth;
452  MAGIC          *freed_tokens;
453 #if VMG_PROPAGATE_ERRSV_NEEDS_TRAMPOLINE
454  vmg_trampoline  propagate_errsv;
455 #endif
456 #if VMG_RESET_RMG_NEEDS_TRAMPOLINE
457  vmg_trampoline  reset_rmg;
458 #endif
459 } xsh_user_cxt_t;
460
461 #if XSH_THREADSAFE
462
463 static void xsh_user_clone(pTHX_ const xsh_user_cxt_t *old_cxt, xsh_user_cxt_t *new_cxt) {
464  int c;
465
466  for (c = OPc_NULL; c < OPc_MAX; ++c) {
467   new_cxt->b__op_stashes[c] = old_cxt->b__op_stashes[c]
468                               ? gv_stashpv(vmg_opclassnames[c], 1)
469                               : NULL;
470  }
471
472  new_cxt->depth        = old_cxt->depth;
473  new_cxt->freed_tokens = NULL;
474
475  return;
476 }
477
478
479 #endif /* XSH_THREADSAFE */
480
481 #define XSH_THREADS_NEED_TEARDOWN_LATE 1
482
483 #include "xsh/threads.h"
484
485 /* --- <vmg_vtable> structure ---------------------------------------------- */
486
487 #if XSH_THREADSAFE
488
489 typedef struct {
490  MGVTBL *vtbl;
491  U32     refcount;
492 } vmg_vtable;
493
494 static vmg_vtable *vmg_vtable_alloc(pTHX) {
495 #define vmg_vtable_alloc() vmg_vtable_alloc(aTHX)
496  vmg_vtable *t;
497
498  t = VOID2(vmg_vtable *, PerlMemShared_malloc(sizeof *t));
499
500  t->vtbl     = VOID2(MGVTBL *, PerlMemShared_malloc(sizeof *t->vtbl));
501  t->refcount = 1;
502
503  return t;
504 }
505
506 #define vmg_vtable_vtbl(T) (T)->vtbl
507
508 static perl_mutex vmg_vtable_refcount_mutex;
509
510 static vmg_vtable *vmg_vtable_dup(pTHX_ vmg_vtable *t) {
511 #define vmg_vtable_dup(T) vmg_vtable_dup(aTHX_ (T))
512  XSH_LOCK(&vmg_vtable_refcount_mutex);
513  ++t->refcount;
514  XSH_UNLOCK(&vmg_vtable_refcount_mutex);
515
516  return t;
517 }
518
519 static void vmg_vtable_free(pTHX_ vmg_vtable *t) {
520 #define vmg_vtable_free(T) vmg_vtable_free(aTHX_ (T))
521  U32 refcount;
522
523  XSH_LOCK(&vmg_vtable_refcount_mutex);
524  refcount = --t->refcount;
525  XSH_UNLOCK(&vmg_vtable_refcount_mutex);
526
527  if (!refcount) {
528   PerlMemShared_free(t->vtbl);
529   PerlMemShared_free(t);
530  }
531 }
532
533 #else /* XSH_THREADSAFE */
534
535 typedef MGVTBL vmg_vtable;
536
537 static vmg_vtable *vmg_vtable_alloc(pTHX) {
538 #define vmg_vtable_alloc() vmg_vtable_alloc(aTHX)
539  vmg_vtable *t;
540
541  Newx(t, 1, vmg_vtable);
542
543  return t;
544 }
545
546 #define vmg_vtable_vtbl(T) ((MGVTBL *) (T))
547
548 #define vmg_vtable_free(T) Safefree(T)
549
550 #endif /* !XSH_THREADSAFE */
551
552 /* --- <vmg_wizard> structure ---------------------------------------------- */
553
554 typedef struct {
555  vmg_vtable *vtable;
556
557  U8 opinfo;
558  U8 uvar;
559
560  SV *cb_data;
561  SV *cb_get, *cb_set, *cb_len, *cb_clear, *cb_free;
562  SV *cb_copy;
563  SV *cb_dup;
564 #if MGf_LOCAL
565  SV *cb_local;
566 #endif /* MGf_LOCAL */
567 #if VMG_UVAR
568  SV *cb_fetch, *cb_store, *cb_exists, *cb_delete;
569 #endif /* VMG_UVAR */
570 } vmg_wizard;
571
572 static void vmg_op_info_init(pTHX_ unsigned int opinfo);
573
574 static vmg_wizard *vmg_wizard_alloc(pTHX_ UV opinfo) {
575 #define vmg_wizard_alloc(O) vmg_wizard_alloc(aTHX_ (O))
576  vmg_wizard *w;
577
578  Newx(w, 1, vmg_wizard);
579
580  w->uvar   = 0;
581  w->opinfo = (U8) ((opinfo < 255) ? opinfo : 255);
582  if (w->opinfo)
583   vmg_op_info_init(aTHX_ w->opinfo);
584
585  w->vtable = vmg_vtable_alloc();
586
587  return w;
588 }
589
590 static void vmg_wizard_free(pTHX_ vmg_wizard *w) {
591 #define vmg_wizard_free(W) vmg_wizard_free(aTHX_ (W))
592  if (!w)
593   return;
594
595  /* During global destruction, any of the callbacks may already have been
596   * freed, so we can't rely on still being able to access them. */
597  if (!PL_dirty) {
598   SvREFCNT_dec(w->cb_data);
599   SvREFCNT_dec(w->cb_get);
600   SvREFCNT_dec(w->cb_set);
601   SvREFCNT_dec(w->cb_len);
602   SvREFCNT_dec(w->cb_clear);
603   SvREFCNT_dec(w->cb_free);
604   SvREFCNT_dec(w->cb_copy);
605 #if 0
606   SvREFCNT_dec(w->cb_dup);
607 #endif
608 #if MGf_LOCAL
609   SvREFCNT_dec(w->cb_local);
610 #endif /* MGf_LOCAL */
611 #if VMG_UVAR
612   SvREFCNT_dec(w->cb_fetch);
613   SvREFCNT_dec(w->cb_store);
614   SvREFCNT_dec(w->cb_exists);
615   SvREFCNT_dec(w->cb_delete);
616 #endif /* VMG_UVAR */
617  }
618
619  /* PerlMemShared_free() and Safefree() are still fine during global
620   * destruction though. */
621  vmg_vtable_free(w->vtable);
622  Safefree(w);
623
624  return;
625 }
626
627 #if XSH_THREADSAFE
628
629 #define VMG_CLONE_CB(N) \
630  z->cb_ ## N = (w->cb_ ## N) ? SvREFCNT_inc(sv_dup(w->cb_ ## N, params)) \
631                              : NULL;
632
633 static const vmg_wizard *vmg_wizard_dup(pTHX_ const vmg_wizard *w, CLONE_PARAMS *params) {
634 #define vmg_wizard_dup(W, P) vmg_wizard_dup(aTHX_ (W), (P))
635  vmg_wizard *z;
636
637  if (!w)
638   return NULL;
639
640  Newx(z, 1, vmg_wizard);
641
642  z->vtable = vmg_vtable_dup(w->vtable);
643  z->uvar   = w->uvar;
644  z->opinfo = w->opinfo;
645
646  VMG_CLONE_CB(data);
647  VMG_CLONE_CB(get);
648  VMG_CLONE_CB(set);
649  VMG_CLONE_CB(len);
650  VMG_CLONE_CB(clear);
651  VMG_CLONE_CB(free);
652  VMG_CLONE_CB(copy);
653  VMG_CLONE_CB(dup);
654 #if MGf_LOCAL
655  VMG_CLONE_CB(local);
656 #endif /* MGf_LOCAL */
657 #if VMG_UVAR
658  VMG_CLONE_CB(fetch);
659  VMG_CLONE_CB(store);
660  VMG_CLONE_CB(exists);
661  VMG_CLONE_CB(delete);
662 #endif /* VMG_UVAR */
663
664  return z;
665 }
666
667 #endif /* XSH_THREADSAFE */
668
669 #define vmg_wizard_id(W) PTR2IV(vmg_vtable_vtbl((W)->vtable))
670
671 /* --- Wizard SV objects --------------------------------------------------- */
672
673 static int vmg_wizard_sv_free(pTHX_ SV *sv, MAGIC *mg) {
674  vmg_wizard_free((vmg_wizard *) mg->mg_ptr);
675
676  return 0;
677 }
678
679 #if XSH_THREADSAFE
680
681 static int vmg_wizard_sv_dup(pTHX_ MAGIC *mg, CLONE_PARAMS *params) {
682  mg->mg_ptr = (char *) vmg_wizard_dup((const vmg_wizard *) mg->mg_ptr, params);
683
684  return 0;
685 }
686
687 #endif /* XSH_THREADSAFE */
688
689 static MGVTBL vmg_wizard_sv_vtbl = {
690  NULL,               /* get */
691  NULL,               /* set */
692  NULL,               /* len */
693  NULL,               /* clear */
694  vmg_wizard_sv_free, /* free */
695  NULL,               /* copy */
696 #if XSH_THREADSAFE
697  vmg_wizard_sv_dup,  /* dup */
698 #else
699  NULL,               /* dup */
700 #endif
701 #if MGf_LOCAL
702  NULL,               /* local */
703 #endif /* MGf_LOCAL */
704 };
705
706 static SV *vmg_wizard_sv_new(pTHX_ const vmg_wizard *w) {
707 #define vmg_wizard_sv_new(W) vmg_wizard_sv_new(aTHX_ (W))
708  SV *wiz;
709
710 #if XSH_THREADSAFE
711  wiz = newSV(0);
712 #else
713  wiz = newSViv(PTR2IV(w));
714 #endif
715
716  vmg_sv_magicext(wiz, NULL, &vmg_wizard_sv_vtbl, w, 0);
717
718  SvREADONLY_on(wiz);
719
720  return wiz;
721 }
722
723 #if XSH_THREADSAFE
724
725 #define vmg_sv_has_wizard_type(S) (SvTYPE(S) >= SVt_PVMG)
726
727 static const vmg_wizard *vmg_wizard_from_sv_nocheck(const SV *wiz) {
728  MAGIC *mg;
729
730  for (mg = SvMAGIC(wiz); mg; mg = mg->mg_moremagic) {
731   if (mg->mg_type == PERL_MAGIC_ext && mg->mg_virtual == &vmg_wizard_sv_vtbl)
732    return (const vmg_wizard *) mg->mg_ptr;
733  }
734
735  return NULL;
736 }
737
738 #else /* XSH_THREADSAFE */
739
740 #define vmg_sv_has_wizard_type(S) SvIOK(S)
741
742 #define vmg_wizard_from_sv_nocheck(W) INT2PTR(const vmg_wizard *, SvIVX(W))
743
744 #endif /* !XSH_THREADSAFE */
745
746 #define vmg_wizard_from_sv(W) (vmg_sv_has_wizard_type(W) ? vmg_wizard_from_sv_nocheck(W) : NULL)
747
748 static const vmg_wizard *vmg_wizard_from_mg(const MAGIC *mg) {
749  if (mg->mg_type == PERL_MAGIC_ext && mg->mg_len == HEf_SVKEY) {
750   SV *sv = (SV *) mg->mg_ptr;
751
752   if (vmg_sv_has_wizard_type(sv))
753    return vmg_wizard_from_sv_nocheck(sv);
754  }
755
756  return NULL;
757 }
758
759 #define vmg_wizard_from_mg_nocheck(M) vmg_wizard_from_sv_nocheck((const SV *) (M)->mg_ptr)
760
761 /* --- User-level functions implementation --------------------------------- */
762
763 static const MAGIC *vmg_find(const SV *sv, const vmg_wizard *w) {
764  const MAGIC *mg;
765  IV wid;
766
767  if (SvTYPE(sv) < SVt_PVMG)
768   return NULL;
769
770  wid = vmg_wizard_id(w);
771
772  for (mg = SvMAGIC(sv); mg; mg = mg->mg_moremagic) {
773   const vmg_wizard *z = vmg_wizard_from_mg(mg);
774
775   if (z && vmg_wizard_id(z) == wid)
776    return mg;
777  }
778
779  return NULL;
780 }
781
782 /* ... Construct private data .............................................. */
783
784 static SV *vmg_data_new(pTHX_ SV *ctor, SV *sv, SV **args, I32 items) {
785 #define vmg_data_new(C, S, A, I) vmg_data_new(aTHX_ (C), (S), (A), (I))
786  I32 i;
787  SV *nsv;
788
789  dSP;
790
791  ENTER;
792  SAVETMPS;
793
794  PUSHSTACKi(PERLSI_MAGIC);
795
796  PUSHMARK(SP);
797  EXTEND(SP, items + 1);
798  PUSHs(sv_2mortal(newRV_inc(sv)));
799  for (i = 0; i < items; ++i)
800   PUSHs(args[i]);
801  PUTBACK;
802
803  vmg_call_sv(ctor, G_SCALAR, 0, NULL);
804
805  SPAGAIN;
806  nsv = POPs;
807 #if XSH_HAS_PERL(5, 8, 3)
808  SvREFCNT_inc_simple_void(nsv); /* Or it will be destroyed in FREETMPS */
809 #else
810  nsv = sv_newref(nsv);          /* Workaround some bug in SvREFCNT_inc() */
811 #endif
812  PUTBACK;
813
814  POPSTACK;
815
816  FREETMPS;
817  LEAVE;
818
819  return nsv;
820 }
821
822 static SV *vmg_data_get(pTHX_ SV *sv, const vmg_wizard *w) {
823 #define vmg_data_get(S, W) vmg_data_get(aTHX_ (S), (W))
824  const MAGIC *mg = vmg_find(sv, w);
825
826  return mg ? mg->mg_obj : NULL;
827 }
828
829 /* ... Magic cast/dispell .................................................. */
830
831 #if VMG_UVAR
832
833 static I32 vmg_svt_val(pTHX_ IV, SV *);
834
835 typedef struct {
836  struct ufuncs new_uf;
837  struct ufuncs old_uf;
838 } vmg_uvar_ud;
839
840 #endif /* VMG_UVAR */
841
842 static void vmg_mg_del(pTHX_ SV *sv, MAGIC *prevmagic, MAGIC *mg, MAGIC *moremagic) {
843 #define vmg_mg_del(S, P, M, N) vmg_mg_del(aTHX_ (S), (P), (M), (N))
844  dXSH_CXT;
845
846  if (prevmagic)
847   prevmagic->mg_moremagic = moremagic;
848  else
849   SvMAGIC_set(sv, moremagic);
850
851  /* Destroy private data */
852 #if VMG_UVAR
853  if (mg->mg_type == PERL_MAGIC_uvar) {
854   Safefree(mg->mg_ptr);
855  } else {
856 #endif /* VMG_UVAR */
857   if (mg->mg_obj != sv) {
858    SvREFCNT_dec(mg->mg_obj);
859    mg->mg_obj = NULL;
860   }
861   /* Unreference the wizard */
862   SvREFCNT_dec((SV *) mg->mg_ptr);
863   mg->mg_ptr = NULL;
864 #if VMG_UVAR
865  }
866 #endif /* VMG_UVAR */
867
868  if (XSH_CXT.depth) {
869   mg->mg_moremagic     = XSH_CXT.freed_tokens;
870   XSH_CXT.freed_tokens = mg;
871  } else {
872   mg->mg_moremagic = NULL;
873   Safefree(mg);
874  }
875 }
876
877 static int vmg_magic_chain_free(pTHX_ MAGIC *mg, MAGIC *skip) {
878 #define vmg_magic_chain_free(M, S) vmg_magic_chain_free(aTHX_ (M), (S))
879  int skipped = 0;
880
881  while (mg) {
882   MAGIC *moremagic = mg->mg_moremagic;
883
884   if (mg == skip)
885    ++skipped;
886   else
887    Safefree(mg);
888
889   mg = moremagic;
890  }
891
892  return skipped;
893 }
894
895 static UV vmg_cast(pTHX_ SV *sv, const vmg_wizard *w, const SV *wiz, SV **args, I32 items) {
896 #define vmg_cast(S, W, WIZ, A, I) vmg_cast(aTHX_ (S), (W), (WIZ), (A), (I))
897  MAGIC  *mg;
898  MGVTBL *t;
899  SV     *data;
900  U32     oldgmg;
901
902  if (vmg_find(sv, w))
903   return 1;
904
905  oldgmg = SvGMAGICAL(sv);
906
907  data = (w->cb_data) ? vmg_data_new(w->cb_data, sv, args, items) : NULL;
908
909  t  = vmg_vtable_vtbl(w->vtable);
910  mg = vmg_sv_magicext(sv, data, t, wiz, HEf_SVKEY);
911
912  if (SvTYPE(sv) < SVt_PVHV)
913   goto done;
914
915  /* The GMAGICAL flag only says that a hash is tied or has uvar magic - get
916   * magic is actually never called for them. If the GMAGICAL flag was off before
917   * calling sv_magicext(), the hash isn't tied and has no uvar magic. If it's
918   * now on, then this wizard has get magic. Hence we can work around the
919   * get/clear shortcoming by turning the GMAGICAL flag off. If the current magic
920   * has uvar callbacks, it will be turned back on later. */
921  if (!oldgmg && SvGMAGICAL(sv))
922   SvGMAGICAL_off(sv);
923
924 #if VMG_UVAR
925  if (w->uvar) {
926   MAGIC *prevmagic, *moremagic = NULL;
927   vmg_uvar_ud ud;
928
929   ud.new_uf.uf_val   = vmg_svt_val;
930   ud.new_uf.uf_set   = NULL;
931   ud.new_uf.uf_index = 0;
932   ud.old_uf.uf_val   = NULL;
933   ud.old_uf.uf_set   = NULL;
934   ud.old_uf.uf_index = 0;
935
936   /* One uvar magic in the chain is enough. */
937   for (prevmagic = NULL, mg = SvMAGIC(sv); mg; prevmagic = mg, mg = moremagic) {
938    moremagic = mg->mg_moremagic;
939    if (mg->mg_type == PERL_MAGIC_uvar)
940     break;
941   }
942
943   if (mg) { /* Found another uvar magic. */
944    struct ufuncs *uf = (struct ufuncs *) mg->mg_ptr;
945    if (uf->uf_val == vmg_svt_val) {
946     /* It's our uvar magic, nothing to do. oldgmg was true. */
947     goto done;
948    } else {
949     /* It's another uvar magic, backup it and replace it by ours. */
950     ud.old_uf = *uf;
951     vmg_mg_del(sv, prevmagic, mg, moremagic);
952    }
953   }
954
955   sv_magic(sv, NULL, PERL_MAGIC_uvar, (const char *) &ud, sizeof(ud));
956   vmg_mg_magical(sv);
957   /* Our hash now carries uvar magic. The uvar/clear shortcoming has to be
958    * handled by our uvar callback. */
959  }
960 #endif /* VMG_UVAR */
961
962 done:
963  return 1;
964 }
965
966 static UV vmg_dispell(pTHX_ SV *sv, const vmg_wizard *w) {
967 #define vmg_dispell(S, W) vmg_dispell(aTHX_ (S), (W))
968 #if VMG_UVAR
969  U32 uvars = 0;
970 #endif /* VMG_UVAR */
971  MAGIC *mg, *prevmagic, *moremagic = NULL;
972  IV wid = vmg_wizard_id(w);
973
974  if (SvTYPE(sv) < SVt_PVMG)
975   return 0;
976
977  for (prevmagic = NULL, mg = SvMAGIC(sv); mg; prevmagic = mg, mg = moremagic) {
978   const vmg_wizard *z;
979
980   moremagic = mg->mg_moremagic;
981
982   z = vmg_wizard_from_mg(mg);
983   if (z) {
984    IV zid = vmg_wizard_id(z);
985
986 #if VMG_UVAR
987    if (zid == wid) {
988     /* If the current has no uvar, short-circuit uvar deletion. */
989     uvars = z->uvar ? (uvars + 1) : 0;
990     break;
991    } else if (z->uvar) {
992     ++uvars;
993     /* We can't break here since we need to find the ext magic to delete. */
994    }
995 #else /* VMG_UVAR */
996    if (zid == wid)
997     break;
998 #endif /* !VMG_UVAR */
999   }
1000  }
1001  if (!mg)
1002   return 0;
1003
1004  vmg_mg_del(sv, prevmagic, mg, moremagic);
1005
1006 #if VMG_UVAR
1007  if (uvars == 1 && SvTYPE(sv) >= SVt_PVHV) {
1008   /* mg was the first ext magic in the chain that had uvar */
1009
1010   for (mg = moremagic; mg; mg = mg->mg_moremagic) {
1011    const vmg_wizard *z = vmg_wizard_from_mg(mg);
1012
1013    if (z && z->uvar) {
1014     ++uvars;
1015     break;
1016    }
1017   }
1018
1019   if (uvars == 1) {
1020    vmg_uvar_ud *ud;
1021
1022    for (prevmagic = NULL, mg = SvMAGIC(sv); mg; prevmagic = mg, mg = moremagic){
1023     moremagic = mg->mg_moremagic;
1024     if (mg->mg_type == PERL_MAGIC_uvar)
1025      break;
1026    }
1027
1028    ud = (vmg_uvar_ud *) mg->mg_ptr;
1029    if (ud->old_uf.uf_val || ud->old_uf.uf_set) {
1030     /* Revert the original uvar magic. */
1031     struct ufuncs *uf;
1032     Newx(uf, 1, struct ufuncs);
1033     *uf = ud->old_uf;
1034     Safefree(ud);
1035     mg->mg_ptr = (char *) uf;
1036     mg->mg_len = sizeof(*uf);
1037    } else {
1038     /* Remove the uvar magic. */
1039     vmg_mg_del(sv, prevmagic, mg, moremagic);
1040    }
1041   }
1042  }
1043 #endif /* VMG_UVAR */
1044
1045  vmg_mg_magical(sv);
1046
1047  return 1;
1048 }
1049
1050 /* ... OP info ............................................................. */
1051
1052 #define VMG_OP_INFO_NAME   1
1053 #define VMG_OP_INFO_OBJECT 2
1054
1055 #if XSH_THREADSAFE
1056 static perl_mutex vmg_op_name_init_mutex;
1057 #endif
1058
1059 static U32           vmg_op_name_init      = 0;
1060 static unsigned char vmg_op_name_len[MAXO] = { 0 };
1061
1062 static void vmg_op_info_init(pTHX_ unsigned int opinfo) {
1063 #define vmg_op_info_init(W) vmg_op_info_init(aTHX_ (W))
1064  switch (opinfo) {
1065   case VMG_OP_INFO_NAME:
1066    XSH_LOCK(&vmg_op_name_init_mutex);
1067    if (!vmg_op_name_init) {
1068     OPCODE t;
1069     for (t = 0; t < OP_max; ++t)
1070      vmg_op_name_len[t] = strlen(PL_op_name[t]);
1071     vmg_op_name_init = 1;
1072    }
1073    XSH_UNLOCK(&vmg_op_name_init_mutex);
1074    break;
1075   case VMG_OP_INFO_OBJECT: {
1076    dXSH_CXT;
1077    if (!XSH_CXT.b__op_stashes[0]) {
1078     int c;
1079     require_pv("B.pm");
1080     for (c = OPc_NULL; c < OPc_MAX; ++c)
1081      XSH_CXT.b__op_stashes[c] = gv_stashpv(vmg_opclassnames[c], 1);
1082    }
1083    break;
1084   }
1085   default:
1086    break;
1087  }
1088 }
1089
1090 static SV *vmg_op_info(pTHX_ unsigned int opinfo) {
1091 #define vmg_op_info(W) vmg_op_info(aTHX_ (W))
1092  if (!PL_op)
1093   return &PL_sv_undef;
1094
1095  switch (opinfo) {
1096   case VMG_OP_INFO_NAME: {
1097    const char *name;
1098    STRLEN      name_len;
1099    OPCODE      t = PL_op->op_type;
1100    name     = OP_NAME(PL_op);
1101    name_len = (t == OP_CUSTOM) ? strlen(name) : vmg_op_name_len[t];
1102    return sv_2mortal(newSVpvn(name, name_len));
1103   }
1104   case VMG_OP_INFO_OBJECT: {
1105    dXSH_CXT;
1106    return sv_bless(sv_2mortal(newRV_noinc(newSViv(PTR2IV(PL_op)))),
1107                    XSH_CXT.b__op_stashes[vmg_opclass(PL_op)]);
1108   }
1109   default:
1110    break;
1111  }
1112
1113  return &PL_sv_undef;
1114 }
1115
1116 /* --- svt callbacks ------------------------------------------------------- */
1117
1118 #define VMG_CB_CALL_ARGS_MASK  15
1119 #define VMG_CB_CALL_ARGS_SHIFT 4
1120 #define VMG_CB_CALL_OPINFO     (VMG_OP_INFO_NAME|VMG_OP_INFO_OBJECT) /* 1|2 */
1121 #define VMG_CB_CALL_GUARD      4
1122
1123 static int vmg_dispell_guard_oncroak(pTHX_ void *ud) {
1124  dXSH_CXT;
1125
1126  XSH_CXT.depth--;
1127
1128  /* If we're at the upmost magic call and we're about to die, we can just free
1129   * the tokens right now, since we will jump past the problematic part of our
1130   * caller. */
1131  if (XSH_CXT.depth == 0 && XSH_CXT.freed_tokens) {
1132   vmg_magic_chain_free(XSH_CXT.freed_tokens, NULL);
1133   XSH_CXT.freed_tokens = NULL;
1134  }
1135
1136  return 1;
1137 }
1138
1139 static int vmg_dispell_guard_free(pTHX_ SV *sv, MAGIC *mg) {
1140  vmg_magic_chain_free((MAGIC *) mg->mg_ptr, NULL);
1141
1142  return 0;
1143 }
1144
1145 #if XSH_THREADSAFE
1146
1147 static int vmg_dispell_guard_dup(pTHX_ MAGIC *mg, CLONE_PARAMS *params) {
1148  /* The freed magic tokens aren't cloned by perl because it cannot reach them
1149   * (they have been detached from their parent SV when they were enqueued).
1150   * Hence there's nothing to purge in the new thread. */
1151  mg->mg_ptr = NULL;
1152
1153  return 0;
1154 }
1155
1156 #endif /* XSH_THREADSAFE */
1157
1158 static MGVTBL vmg_dispell_guard_vtbl = {
1159  NULL,                   /* get */
1160  NULL,                   /* set */
1161  NULL,                   /* len */
1162  NULL,                   /* clear */
1163  vmg_dispell_guard_free, /* free */
1164  NULL,                   /* copy */
1165 #if XSH_THREADSAFE
1166  vmg_dispell_guard_dup,  /* dup */
1167 #else
1168  NULL,                   /* dup */
1169 #endif
1170 #if MGf_LOCAL
1171  NULL,                   /* local */
1172 #endif /* MGf_LOCAL */
1173 };
1174
1175 static SV *vmg_dispell_guard_new(pTHX_ MAGIC *root) {
1176 #define vmg_dispell_guard_new(R) vmg_dispell_guard_new(aTHX_ (R))
1177  SV *guard;
1178
1179  guard = sv_newmortal();
1180  vmg_sv_magicext(guard, NULL, &vmg_dispell_guard_vtbl, root, 0);
1181
1182  return guard;
1183 }
1184
1185 static int vmg_cb_call(pTHX_ SV *cb, unsigned int flags, SV *sv, ...) {
1186  va_list ap;
1187  int ret = 0;
1188  unsigned int i, args, opinfo;
1189  MAGIC **chain = NULL;
1190  SV *svr;
1191
1192  dSP;
1193
1194  args    = flags & VMG_CB_CALL_ARGS_MASK;
1195  flags >>= VMG_CB_CALL_ARGS_SHIFT;
1196  opinfo  = flags & VMG_CB_CALL_OPINFO;
1197
1198  ENTER;
1199  SAVETMPS;
1200
1201  PUSHSTACKi(PERLSI_MAGIC);
1202
1203  PUSHMARK(SP);
1204  EXTEND(SP, args + 1);
1205  PUSHs(sv_2mortal(newRV_inc(sv)));
1206  va_start(ap, sv);
1207  for (i = 0; i < args; ++i) {
1208   SV *sva = va_arg(ap, SV *);
1209   PUSHs(sva ? sva : &PL_sv_undef);
1210  }
1211  va_end(ap);
1212  if (opinfo)
1213   XPUSHs(vmg_op_info(opinfo));
1214  PUTBACK;
1215
1216  if (flags & VMG_CB_CALL_GUARD) {
1217   dXSH_CXT;
1218   XSH_CXT.depth++;
1219   vmg_call_sv(cb, G_SCALAR, vmg_dispell_guard_oncroak, NULL);
1220   XSH_CXT.depth--;
1221   if (XSH_CXT.depth == 0 && XSH_CXT.freed_tokens)
1222    chain = &XSH_CXT.freed_tokens;
1223  } else {
1224   vmg_call_sv(cb, G_SCALAR, 0, NULL);
1225  }
1226
1227  SPAGAIN;
1228  svr = POPs;
1229  if (SvOK(svr))
1230   ret = (int) SvIV(svr);
1231  if (SvROK(svr))
1232   SvREFCNT_inc(svr);
1233  else
1234   svr = NULL;
1235  PUTBACK;
1236
1237  POPSTACK;
1238
1239  FREETMPS;
1240  LEAVE;
1241
1242  if (svr && !SvTEMP(svr))
1243   sv_2mortal(svr);
1244
1245  if (chain) {
1246   vmg_dispell_guard_new(*chain);
1247   *chain = NULL;
1248  }
1249
1250  return ret;
1251 }
1252
1253 #define VMG_CB_FLAGS(OI, A) \
1254         ((((unsigned int) (OI)) << VMG_CB_CALL_ARGS_SHIFT) | (A))
1255
1256 #define vmg_cb_call1(I, OI, S, A1) \
1257         vmg_cb_call(aTHX_ (I), VMG_CB_FLAGS((OI), 1), (S), (A1))
1258 #define vmg_cb_call2(I, OI, S, A1, A2) \
1259         vmg_cb_call(aTHX_ (I), VMG_CB_FLAGS((OI), 2), (S), (A1), (A2))
1260 #define vmg_cb_call3(I, OI, S, A1, A2, A3) \
1261         vmg_cb_call(aTHX_ (I), VMG_CB_FLAGS((OI), 3), (S), (A1), (A2), (A3))
1262
1263 /* ... Default no-op magic callback ........................................ */
1264
1265 static int vmg_svt_default_noop(pTHX_ SV *sv, MAGIC *mg) {
1266  return 0;
1267 }
1268
1269 /* ... get magic ........................................................... */
1270
1271 static int vmg_svt_get(pTHX_ SV *sv, MAGIC *mg) {
1272  const vmg_wizard *w = vmg_wizard_from_mg_nocheck(mg);
1273
1274  return vmg_cb_call1(w->cb_get, w->opinfo, sv, mg->mg_obj);
1275 }
1276
1277 #define vmg_svt_get_noop vmg_svt_default_noop
1278
1279 /* ... set magic ........................................................... */
1280
1281 static int vmg_svt_set(pTHX_ SV *sv, MAGIC *mg) {
1282  const vmg_wizard *w = vmg_wizard_from_mg_nocheck(mg);
1283
1284  return vmg_cb_call1(w->cb_set, w->opinfo, sv, mg->mg_obj);
1285 }
1286
1287 #define vmg_svt_set_noop vmg_svt_default_noop
1288
1289 /* ... len magic ........................................................... */
1290
1291 static U32 vmg_sv_len(pTHX_ SV *sv) {
1292 #define vmg_sv_len(S) vmg_sv_len(aTHX_ (S))
1293  STRLEN len;
1294 #if XSH_HAS_PERL(5, 9, 3)
1295  const U8 *s = VOID2(const U8 *, VOID2(const void *, SvPV_const(sv, len)));
1296 #else
1297  U8 *s = SvPV(sv, len);
1298 #endif
1299
1300  return DO_UTF8(sv) ? utf8_length(s, s + len) : len;
1301 }
1302
1303 static U32 vmg_svt_len(pTHX_ SV *sv, MAGIC *mg) {
1304  const vmg_wizard *w = vmg_wizard_from_mg_nocheck(mg);
1305  unsigned int opinfo = w->opinfo;
1306  U32 len, ret;
1307  SV *svr;
1308  svtype t = SvTYPE(sv);
1309
1310  dSP;
1311
1312  ENTER;
1313  SAVETMPS;
1314
1315  PUSHSTACKi(PERLSI_MAGIC);
1316
1317  PUSHMARK(SP);
1318  EXTEND(SP, 3);
1319  PUSHs(sv_2mortal(newRV_inc(sv)));
1320  PUSHs(mg->mg_obj ? mg->mg_obj : &PL_sv_undef);
1321  if (t < SVt_PVAV) {
1322   len = vmg_sv_len(sv);
1323   mPUSHu(len);
1324  } else if (t == SVt_PVAV) {
1325   len = av_len((AV *) sv) + 1;
1326   mPUSHu(len);
1327  } else {
1328   len = 0;
1329   PUSHs(&PL_sv_undef);
1330  }
1331  if (opinfo)
1332   XPUSHs(vmg_op_info(opinfo));
1333  PUTBACK;
1334
1335  vmg_call_sv(w->cb_len, G_SCALAR, 0, NULL);
1336
1337  SPAGAIN;
1338  svr = POPs;
1339  ret = SvOK(svr) ? (U32) SvUV(svr) : len;
1340  if (t == SVt_PVAV)
1341   --ret;
1342  PUTBACK;
1343
1344  POPSTACK;
1345
1346  FREETMPS;
1347  LEAVE;
1348
1349  return ret;
1350 }
1351
1352 static U32 vmg_svt_len_noop(pTHX_ SV *sv, MAGIC *mg) {
1353  U32    len = 0;
1354  svtype t   = SvTYPE(sv);
1355
1356  if (t < SVt_PVAV) {
1357   len = vmg_sv_len(sv);
1358  } else if (t == SVt_PVAV) {
1359   len = (U32) av_len((AV *) sv);
1360  }
1361
1362  return len;
1363 }
1364
1365 /* ... clear magic ......................................................... */
1366
1367 static int vmg_svt_clear(pTHX_ SV *sv, MAGIC *mg) {
1368  const vmg_wizard *w = vmg_wizard_from_mg_nocheck(mg);
1369  unsigned int flags  = w->opinfo;
1370
1371 #if !XSH_HAS_PERL(5, 12, 0)
1372  flags |= VMG_CB_CALL_GUARD;
1373 #endif
1374
1375  return vmg_cb_call1(w->cb_clear, flags, sv, mg->mg_obj);
1376 }
1377
1378 #define vmg_svt_clear_noop vmg_svt_default_noop
1379
1380 /* ... free magic .......................................................... */
1381
1382 #if VMG_PROPAGATE_ERRSV_NEEDS_TRAMPOLINE
1383
1384 static OP *vmg_pp_propagate_errsv(pTHX) {
1385  SVOP *o = cSVOPx(PL_op);
1386
1387  if (o->op_sv) {
1388   sv_setsv(ERRSV, o->op_sv);
1389   SvREFCNT_dec(o->op_sv);
1390   o->op_sv = NULL;
1391  }
1392
1393  return NORMAL;
1394 }
1395
1396 #endif /* VMG_PROPAGATE_ERRSV_NEEDS_TRAMPOLINE */
1397
1398 static int vmg_propagate_errsv_free(pTHX_ SV *sv, MAGIC *mg) {
1399  if (mg->mg_obj)
1400   sv_setsv(ERRSV, mg->mg_obj);
1401
1402  return 0;
1403 }
1404
1405 /* perl is already kind enough to handle the cloning of the mg_obj member,
1406    hence we don't need to define a dup magic callback. */
1407
1408 static MGVTBL vmg_propagate_errsv_vtbl = {
1409  0,                        /* get */
1410  0,                        /* set */
1411  0,                        /* len */
1412  0,                        /* clear */
1413  vmg_propagate_errsv_free, /* free */
1414  0,                        /* copy */
1415  0,                        /* dup */
1416 #if MGf_LOCAL
1417  0,                        /* local */
1418 #endif /* MGf_LOCAL */
1419 };
1420
1421 typedef struct {
1422  SV  *sv;
1423  SV  *rsv; /* The ref to the sv currently being freed, pushed on the stack */
1424  int  in_eval;
1425  I32  base;
1426 } vmg_svt_free_cleanup_ud;
1427
1428 static int vmg_svt_free_cleanup(pTHX_ void *ud_) {
1429  vmg_svt_free_cleanup_ud *ud = VOID2(vmg_svt_free_cleanup_ud *, ud_);
1430
1431  if (ud->in_eval) {
1432   U32 optype = PL_op ? PL_op->op_type : OP_NULL;
1433
1434   if (optype == OP_LEAVETRY || optype == OP_LEAVEEVAL) {
1435    SV *errsv = newSVsv(ERRSV);
1436
1437    FREETMPS;
1438    LEAVE_SCOPE(ud->base);
1439
1440 #if VMG_PROPAGATE_ERRSV_NEEDS_TRAMPOLINE
1441    if (optype == OP_LEAVETRY) {
1442     dXSH_CXT;
1443     PL_op = vmg_trampoline_bump(&XSH_CXT.propagate_errsv, errsv, PL_op);
1444    } else if (optype == OP_LEAVEEVAL) {
1445     SV *guard = sv_newmortal();
1446     vmg_sv_magicext(guard, errsv, &vmg_propagate_errsv_vtbl, NULL, 0);
1447    }
1448 #else /* !VMG_PROPAGATE_ERRSV_NEEDS_TRAMPOLINE */
1449 # if !XSH_HAS_PERL(5, 8, 9)
1450    {
1451     SV *guard = sv_newmortal();
1452     vmg_sv_magicext(guard, errsv, &vmg_propagate_errsv_vtbl, NULL, 0);
1453    }
1454 # else
1455    vmg_sv_magicext(ERRSV, errsv, &vmg_propagate_errsv_vtbl, NULL, 0);
1456 # endif
1457 #endif /* VMG_PROPAGATE_ERRSV_NEEDS_TRAMPOLINE */
1458
1459    SAVETMPS;
1460   }
1461
1462   /* Don't propagate */
1463   return 0;
1464  } else {
1465   SV    *sv = ud->sv;
1466   MAGIC *mg;
1467
1468  /* Silently undo the ref - don't trigger destruction in the referent
1469   * for a second time */
1470  if (SvROK(ud->rsv) && SvRV(ud->rsv) == sv) {
1471   --SvREFCNT(sv);
1472   SvRV_set(ud->rsv, NULL);
1473   SvROK_off(ud->rsv);
1474  }
1475  SvREFCNT_dec_NN(ud->rsv);
1476
1477   /* We are about to croak() while sv is being destroyed. Try to clean up
1478    * things a bit. */
1479   mg = SvMAGIC(sv);
1480   if (mg) {
1481    vmg_mg_del(sv, NULL, mg, mg->mg_moremagic);
1482    mg_magical(sv);
1483   }
1484   SvREFCNT_dec(sv); /* Re-trigger destruction */
1485
1486   vmg_dispell_guard_oncroak(aTHX_ NULL);
1487
1488   /* After that, propagate the error upwards. */
1489   return 1;
1490  }
1491 }
1492
1493 static int vmg_svt_free(pTHX_ SV *sv, MAGIC *mg) {
1494  vmg_svt_free_cleanup_ud ud;
1495  const vmg_wizard *w;
1496  int ret = 0;
1497  SV *svr;
1498
1499  dSP;
1500
1501  /* During global destruction, we cannot be sure that the wizard and its free
1502   * callback are still alive. */
1503  if (PL_dirty)
1504   return 0;
1505
1506  w = vmg_wizard_from_mg_nocheck(mg);
1507
1508  /* So that it survives the temp cleanup below */
1509  SvREFCNT_inc_simple_void(sv);
1510
1511 #if !(XSH_HAS_PERL_MAINT(5, 11, 0, 32686) || XSH_HAS_PERL(5, 12, 0))
1512  /* The previous magic tokens were freed but the magic chain wasn't updated, so
1513   * if you access the sv from the callback the old deleted magics will trigger
1514   * and cause memory misreads. Change 32686 solved it that way : */
1515  SvMAGIC_set(sv, mg);
1516 #endif
1517
1518  ud.sv = sv;
1519  if (cxstack_ix < cxstack_max) {
1520   ud.in_eval = (CxTYPE(cxstack + cxstack_ix + 1) == CXt_EVAL);
1521   ud.base    = ud.in_eval ? PL_scopestack[PL_scopestack_ix] : 0;
1522  } else {
1523   ud.in_eval = 0;
1524   ud.base    = 0;
1525  }
1526
1527  ENTER;
1528  SAVETMPS;
1529
1530  PUSHSTACKi(PERLSI_MAGIC);
1531
1532  PUSHMARK(SP);
1533  EXTEND(SP, 2);
1534  /* This will bump the refcount of sv from 0 to 1 */
1535  ud.rsv = newRV_inc(sv);
1536  PUSHs(ud.rsv);
1537  PUSHs(mg->mg_obj ? mg->mg_obj : &PL_sv_undef);
1538  if (w->opinfo)
1539   XPUSHs(vmg_op_info(w->opinfo));
1540  PUTBACK;
1541
1542  {
1543   dXSH_CXT;
1544   XSH_CXT.depth++;
1545   vmg_call_sv(w->cb_free, G_SCALAR, vmg_svt_free_cleanup, &ud);
1546   XSH_CXT.depth--;
1547   if (XSH_CXT.depth == 0 && XSH_CXT.freed_tokens) {
1548    /* Free all the tokens in the chain but the current one (if it's present).
1549     * It will be taken care of by our caller, Perl_mg_free(). */
1550    vmg_magic_chain_free(XSH_CXT.freed_tokens, mg);
1551    XSH_CXT.freed_tokens = NULL;
1552   }
1553  }
1554
1555  SPAGAIN;
1556  svr = POPs;
1557  if (SvOK(svr))
1558   ret = (int) SvIV(svr);
1559  PUTBACK;
1560
1561  POPSTACK;
1562
1563  /* Silently undo the ref - don't trigger destruction in the referent
1564   * for a second time */
1565  if (SvROK(ud.rsv) && SvRV(ud.rsv) == sv) {
1566   SvRV_set(ud.rsv, NULL);
1567   SvROK_off(ud.rsv);
1568   --SvREFCNT(sv); /* silent */
1569  }
1570  SvREFCNT_dec_NN(ud.rsv);
1571
1572  FREETMPS;
1573  LEAVE;
1574
1575  /* Calling SvREFCNT_dec() will trigger destructors in an infinite loop, so
1576   * we have to rely on SvREFCNT() being a lvalue. Heck, even the core does it */
1577  --SvREFCNT(sv);
1578
1579  /* Perl_mg_free will get rid of the magic and decrement mg->mg_obj and
1580   * mg->mg_ptr reference count */
1581  return ret;
1582 }
1583
1584 #define vmg_svt_free_noop vmg_svt_default_noop
1585
1586 #if XSH_HAS_PERL_MAINT(5, 11, 0, 33256) || XSH_HAS_PERL(5, 12, 0)
1587 # define VMG_SVT_COPY_KEYLEN_TYPE I32
1588 #else
1589 # define VMG_SVT_COPY_KEYLEN_TYPE int
1590 #endif
1591
1592 /* ... copy magic .......................................................... */
1593
1594 static int vmg_svt_copy(pTHX_ SV *sv, MAGIC *mg, SV *nsv, const char *key, VMG_SVT_COPY_KEYLEN_TYPE keylen) {
1595  const vmg_wizard *w = vmg_wizard_from_mg_nocheck(mg);
1596  SV *keysv;
1597  int ret;
1598
1599  if (keylen == HEf_SVKEY) {
1600   keysv = (SV *) key;
1601  } else {
1602   keysv = newSVpvn(key, keylen);
1603  }
1604
1605  if (SvTYPE(sv) >= SVt_PVCV)
1606   nsv = sv_2mortal(newRV_inc(nsv));
1607
1608  ret = vmg_cb_call3(w->cb_copy, w->opinfo, sv, mg->mg_obj, keysv, nsv);
1609
1610  if (keylen != HEf_SVKEY) {
1611   SvREFCNT_dec(keysv);
1612  }
1613
1614  return ret;
1615 }
1616
1617 static int vmg_svt_copy_noop(pTHX_ SV *sv, MAGIC *mg, SV *nsv, const char *key, VMG_SVT_COPY_KEYLEN_TYPE keylen) {
1618  return 0;
1619 }
1620
1621 /* ... dup magic ........................................................... */
1622
1623 #if 0
1624 static int vmg_svt_dup(pTHX_ MAGIC *mg, CLONE_PARAMS *param) {
1625  return 0;
1626 }
1627 #define vmg_svt_dup_noop vmg_svt_dup
1628 #endif
1629
1630 /* ... local magic ......................................................... */
1631
1632 #if MGf_LOCAL
1633
1634 static int vmg_svt_local(pTHX_ SV *nsv, MAGIC *mg) {
1635  const vmg_wizard *w = vmg_wizard_from_mg_nocheck(mg);
1636
1637  return vmg_cb_call1(w->cb_local, w->opinfo, nsv, mg->mg_obj);
1638 }
1639
1640 #define vmg_svt_local_noop vmg_svt_default_noop
1641
1642 #endif /* MGf_LOCAL */
1643
1644 /* ... uvar magic .......................................................... */
1645
1646 #if VMG_UVAR
1647
1648 static OP *vmg_pp_reset_rmg(pTHX) {
1649  SVOP *o = cSVOPx(PL_op);
1650
1651  SvRMAGICAL_on(o->op_sv);
1652  o->op_sv = NULL;
1653
1654  return NORMAL;
1655 }
1656
1657 static I32 vmg_svt_val(pTHX_ IV action, SV *sv) {
1658  vmg_uvar_ud *ud;
1659  MAGIC *mg, *umg, *moremagic;
1660  SV *key = NULL, *newkey = NULL;
1661  int tied = 0;
1662
1663  umg = mg_find(sv, PERL_MAGIC_uvar);
1664  /* umg can't be NULL or we wouldn't be there. */
1665  key = umg->mg_obj;
1666  ud  = (vmg_uvar_ud *) umg->mg_ptr;
1667
1668  if (ud->old_uf.uf_val)
1669   ud->old_uf.uf_val(aTHX_ action, sv);
1670  if (ud->old_uf.uf_set)
1671   ud->old_uf.uf_set(aTHX_ action, sv);
1672
1673  for (mg = SvMAGIC(sv); mg; mg = moremagic) {
1674   const vmg_wizard *w;
1675
1676   /* mg may be freed later by the uvar call, so we need to fetch the next
1677    * token before reaching that fateful point. */
1678   moremagic = mg->mg_moremagic;
1679
1680   switch (mg->mg_type) {
1681    case PERL_MAGIC_ext:
1682     break;
1683    case PERL_MAGIC_tied:
1684     ++tied;
1685     continue;
1686    default:
1687     continue;
1688   }
1689
1690   w = vmg_wizard_from_mg(mg);
1691   if (!w)
1692    continue;
1693
1694   switch (w->uvar) {
1695    case 0:
1696     continue;
1697    case 2:
1698     if (!newkey)
1699      newkey = key = umg->mg_obj = sv_mortalcopy(umg->mg_obj);
1700   }
1701
1702   switch (action
1703              & (HV_FETCH_ISSTORE|HV_FETCH_ISEXISTS|HV_FETCH_LVALUE|HV_DELETE)) {
1704    case 0:
1705     if (w->cb_fetch)
1706      vmg_cb_call2(w->cb_fetch, w->opinfo | VMG_CB_CALL_GUARD, sv,
1707                                mg->mg_obj, key);
1708     break;
1709    case HV_FETCH_ISSTORE:
1710    case HV_FETCH_LVALUE:
1711    case (HV_FETCH_ISSTORE|HV_FETCH_LVALUE):
1712     if (w->cb_store)
1713      vmg_cb_call2(w->cb_store, w->opinfo | VMG_CB_CALL_GUARD, sv,
1714                                mg->mg_obj, key);
1715     break;
1716    case HV_FETCH_ISEXISTS:
1717     if (w->cb_exists)
1718      vmg_cb_call2(w->cb_exists, w->opinfo | VMG_CB_CALL_GUARD, sv,
1719                                 mg->mg_obj, key);
1720     break;
1721    case HV_DELETE:
1722     if (w->cb_delete)
1723      vmg_cb_call2(w->cb_delete, w->opinfo | VMG_CB_CALL_GUARD, sv,
1724                                 mg->mg_obj, key);
1725     break;
1726   }
1727  }
1728
1729  if (SvRMAGICAL(sv) && !tied && !(action & (HV_FETCH_ISSTORE|HV_DELETE))) {
1730   /* Temporarily hide the RMAGICAL flag of the hash so it isn't wrongly
1731    * mistaken for a tied hash by the rest of hv_common. It will be reset by
1732    * the op_ppaddr of a new fake op injected between the current and the next
1733    * one. */
1734
1735 #if VMG_RESET_RMG_NEEDS_TRAMPOLINE
1736
1737   dXSH_CXT;
1738
1739   PL_op = vmg_trampoline_bump(&XSH_CXT.reset_rmg, sv, PL_op);
1740
1741 #else /* !VMG_RESET_RMG_NEEDS_TRAMPOLINE */
1742
1743   OP   *nop  = PL_op->op_next;
1744   SVOP *svop = NULL;
1745
1746   if (nop && nop->op_ppaddr == vmg_pp_reset_rmg) {
1747    svop = (SVOP *) nop;
1748   } else {
1749    NewOp(1101, svop, 1, SVOP);
1750    svop->op_type    = OP_STUB;
1751    svop->op_ppaddr  = vmg_pp_reset_rmg;
1752    svop->op_next    = nop;
1753    svop->op_flags   = 0;
1754    svop->op_private = 0;
1755
1756    PL_op->op_next = (OP *) svop;
1757   }
1758
1759   svop->op_sv = sv;
1760
1761 #endif /* VMG_RESET_RMG_NEEDS_TRAMPOLINE */
1762
1763   SvRMAGICAL_off(sv);
1764  }
1765
1766  return 0;
1767 }
1768
1769 #endif /* VMG_UVAR */
1770
1771 /* --- Module setup/teardown ----------------------------------------------- */
1772
1773 #if XSH_THREADSAFE
1774
1775 static void vmg_global_teardown_late_locked(pTHX_ void *ud) {
1776 #define vmg_global_teardown_late_locked(UD) vmg_global_teardown_late_locked(aTHX_ (UD))
1777  MUTEX_DESTROY(&vmg_op_name_init_mutex);
1778  MUTEX_DESTROY(&vmg_vtable_refcount_mutex);
1779
1780  return;
1781 }
1782
1783 static signed char vmg_destruct_level(pTHX) {
1784 #define vmg_destruct_level() vmg_destruct_level(aTHX)
1785  signed char lvl;
1786
1787  lvl = PL_perl_destruct_level;
1788
1789 #ifdef DEBUGGING
1790  {
1791   const char *s = PerlEnv_getenv("PERL_DESTRUCT_LEVEL");
1792   if (s) {
1793    int i;
1794 #if XSH_HAS_PERL(5, 21, 3)
1795    if (strEQ(s, "-1")) {
1796     i = -1;
1797    } else {
1798 # if XSH_HAS_PERL(5, 21, 10)
1799     UV uv;
1800     if (Perl_grok_atoUV(s, &uv, NULL) && uv <= INT_MAX)
1801      i = (int) uv;
1802     else
1803      i = 0;
1804 # else /* XSH_HAS_PERL(5, 21, 3) && !XSH_HAS_PERL(5, 21, 10) */
1805     i = Perl_grok_atou(s, NULL);
1806 # endif
1807    }
1808 #else /* !XSH_HAS_PERL(5, 21, 3) */
1809    i = atoi(s);
1810 #endif
1811    if (lvl < i)
1812     lvl = i;
1813   }
1814  }
1815 #endif
1816
1817  return lvl;
1818 }
1819
1820 #endif /* XSH_THREADSAFE */
1821
1822 static void xsh_user_global_setup(pTHX) {
1823 #if XSH_THREADSAFE
1824  MUTEX_INIT(&vmg_vtable_refcount_mutex);
1825  MUTEX_INIT(&vmg_op_name_init_mutex);
1826 #endif
1827
1828  return;
1829 }
1830
1831 static void xsh_user_local_setup(pTHX_ xsh_user_cxt_t *cxt) {
1832  HV *stash;
1833  int c;
1834
1835  for (c = OPc_NULL; c < OPc_MAX; ++c)
1836   cxt->b__op_stashes[c] = NULL;
1837
1838  cxt->depth        = 0;
1839  cxt->freed_tokens = NULL;
1840
1841 #if VMG_PROPAGATE_ERRSV_NEEDS_TRAMPOLINE
1842  vmg_trampoline_init(&cxt->propagate_errsv, vmg_pp_propagate_errsv);
1843 #endif
1844 #if VMG_RESET_RMG_NEEDS_TRAMPOLINE
1845  vmg_trampoline_init(&cxt->reset_rmg, vmg_pp_reset_rmg);
1846 #endif
1847
1848  stash = gv_stashpv(XSH_PACKAGE, 1);
1849  newCONSTSUB(stash, "MGf_COPY",  newSVuv(MGf_COPY));
1850  newCONSTSUB(stash, "MGf_DUP",   newSVuv(MGf_DUP));
1851  newCONSTSUB(stash, "MGf_LOCAL", newSVuv(MGf_LOCAL));
1852  newCONSTSUB(stash, "VMG_UVAR",  newSVuv(VMG_UVAR));
1853  newCONSTSUB(stash, "VMG_COMPAT_SCALAR_LENGTH_NOLEN",
1854                     newSVuv(VMG_COMPAT_SCALAR_LENGTH_NOLEN));
1855  newCONSTSUB(stash, "VMG_COMPAT_SCALAR_NOLEN",
1856                     newSVuv(VMG_COMPAT_SCALAR_NOLEN));
1857  newCONSTSUB(stash, "VMG_COMPAT_ARRAY_PUSH_NOLEN",
1858                     newSVuv(VMG_COMPAT_ARRAY_PUSH_NOLEN));
1859  newCONSTSUB(stash, "VMG_COMPAT_ARRAY_PUSH_NOLEN_VOID",
1860                     newSVuv(VMG_COMPAT_ARRAY_PUSH_NOLEN_VOID));
1861  newCONSTSUB(stash, "VMG_COMPAT_ARRAY_UNSHIFT_NOLEN_VOID",
1862                     newSVuv(VMG_COMPAT_ARRAY_UNSHIFT_NOLEN_VOID));
1863  newCONSTSUB(stash, "VMG_COMPAT_ARRAY_UNDEF_CLEAR",
1864                     newSVuv(VMG_COMPAT_ARRAY_UNDEF_CLEAR));
1865  newCONSTSUB(stash, "VMG_COMPAT_HASH_DELETE_NOUVAR_VOID",
1866                     newSVuv(VMG_COMPAT_HASH_DELETE_NOUVAR_VOID));
1867  newCONSTSUB(stash, "VMG_COMPAT_CODE_COPY_CLONE",
1868                     newSVuv(VMG_COMPAT_CODE_COPY_CLONE));
1869  newCONSTSUB(stash, "VMG_COMPAT_GLOB_GET", newSVuv(VMG_COMPAT_GLOB_GET));
1870  newCONSTSUB(stash, "VMG_PERL_PATCHLEVEL", newSVuv(XSH_PERL_PATCHLEVEL));
1871  newCONSTSUB(stash, "VMG_THREADSAFE",      newSVuv(XSH_THREADSAFE));
1872  newCONSTSUB(stash, "VMG_FORKSAFE",        newSVuv(XSH_FORKSAFE));
1873  newCONSTSUB(stash, "VMG_OP_INFO_NAME",    newSVuv(VMG_OP_INFO_NAME));
1874  newCONSTSUB(stash, "VMG_OP_INFO_OBJECT",  newSVuv(VMG_OP_INFO_OBJECT));
1875
1876  return;
1877 }
1878
1879 static void xsh_user_local_teardown(pTHX_ xsh_user_cxt_t *cxt) {
1880  if (cxt->depth == 0 && cxt->freed_tokens) {
1881   vmg_magic_chain_free(cxt->freed_tokens, NULL);
1882   cxt->freed_tokens = NULL;
1883  }
1884
1885  return;
1886 }
1887
1888 static void xsh_user_global_teardown(pTHX) {
1889 #if XSH_THREADSAFE
1890  if (vmg_destruct_level() == 0)
1891   vmg_global_teardown_late_locked(NULL);
1892  else
1893   xsh_teardown_late_register(vmg_global_teardown_late_locked, NULL);
1894 #endif
1895
1896  return;
1897 }
1898
1899 /* --- Macros for the XS section ------------------------------------------- */
1900
1901 #ifdef CvISXSUB
1902 # define VMG_CVOK(C) \
1903    ((CvISXSUB(C) ? (void *) CvXSUB(C) : (void *) CvROOT(C)) ? 1 : 0)
1904 #else
1905 # define VMG_CVOK(C) (CvROOT(C) || CvXSUB(C))
1906 #endif
1907
1908 #define VMG_CBOK(S) ((SvTYPE(S) == SVt_PVCV) ? VMG_CVOK(S) : SvOK(S))
1909
1910 #define VMG_SET_CB(S, N) {       \
1911  SV *cb = (S);                   \
1912  if (SvOK(cb) && SvROK(cb)) {    \
1913   cb = SvRV(cb);                 \
1914   if (VMG_CBOK(cb))              \
1915    SvREFCNT_inc_simple_void(cb); \
1916   else                           \
1917    cb = NULL;                    \
1918  } else {                        \
1919   cb = NULL;                     \
1920  }                               \
1921  w->cb_ ## N = cb;               \
1922 }
1923
1924 #define VMG_SET_SVT_CB(S, N) {   \
1925  SV *cb = (S);                   \
1926  if (SvOK(cb) && SvROK(cb)) {    \
1927   cb = SvRV(cb);                 \
1928   if (VMG_CBOK(cb)) {            \
1929    t->svt_ ## N = vmg_svt_ ## N; \
1930    SvREFCNT_inc_simple_void(cb); \
1931   } else {                       \
1932    t->svt_ ## N = vmg_svt_ ## N ## _noop; \
1933    cb           = NULL;          \
1934   }                              \
1935  } else {                        \
1936   t->svt_ ## N = NULL;           \
1937   cb           = NULL;           \
1938  }                               \
1939  w->cb_ ## N = cb;               \
1940 }
1941
1942 /* --- XS ------------------------------------------------------------------ */
1943
1944 MODULE = Variable::Magic            PACKAGE = Variable::Magic
1945
1946 PROTOTYPES: ENABLE
1947
1948 BOOT:
1949 {
1950  xsh_setup();
1951 }
1952
1953 #if XSH_THREADSAFE
1954
1955 void
1956 CLONE(...)
1957 PROTOTYPE: DISABLE
1958 PPCODE:
1959  xsh_clone();
1960  XSRETURN(0);
1961
1962 #endif /* XSH_THREADSAFE */
1963
1964 SV *_wizard(...)
1965 PROTOTYPE: DISABLE
1966 PREINIT:
1967  vmg_wizard *w;
1968  MGVTBL *t;
1969  SV *op_info, *copy_key;
1970  I32 i = 0;
1971 CODE:
1972  if (items != 9
1973 #if MGf_LOCAL
1974               + 1
1975 #endif /* MGf_LOCAL */
1976 #if VMG_UVAR
1977               + 5
1978 #endif /* VMG_UVAR */
1979               ) { croak(vmg_wrongargnum); }
1980
1981  op_info = ST(i++);
1982  w = vmg_wizard_alloc(SvOK(op_info) ? SvUV(op_info) : 0);
1983  t = vmg_vtable_vtbl(w->vtable);
1984
1985  VMG_SET_CB(ST(i++), data);
1986
1987  VMG_SET_SVT_CB(ST(i++), get);
1988  VMG_SET_SVT_CB(ST(i++), set);
1989  VMG_SET_SVT_CB(ST(i++), len);
1990  VMG_SET_SVT_CB(ST(i++), clear);
1991  VMG_SET_SVT_CB(ST(i++), free);
1992  VMG_SET_SVT_CB(ST(i++), copy);
1993  /* VMG_SET_SVT_CB(ST(i++), dup); */
1994  i++;
1995  t->svt_dup = NULL;
1996  w->cb_dup  = NULL;
1997 #if MGf_LOCAL
1998  VMG_SET_SVT_CB(ST(i++), local);
1999 #endif /* MGf_LOCAL */
2000 #if VMG_UVAR
2001  VMG_SET_CB(ST(i++), fetch);
2002  VMG_SET_CB(ST(i++), store);
2003  VMG_SET_CB(ST(i++), exists);
2004  VMG_SET_CB(ST(i++), delete);
2005
2006  copy_key = ST(i++);
2007  if (w->cb_fetch || w->cb_store || w->cb_exists || w->cb_delete)
2008   w->uvar = SvTRUE(copy_key) ? 2 : 1;
2009 #endif /* VMG_UVAR */
2010
2011  RETVAL = newRV_noinc(vmg_wizard_sv_new(w));
2012 OUTPUT:
2013  RETVAL
2014
2015 SV *cast(SV *sv, SV *wiz, ...)
2016 PROTOTYPE: \[$@%&*]$@
2017 PREINIT:
2018  const vmg_wizard *w = NULL;
2019  SV **args = NULL;
2020  I32 i = 0;
2021 CODE:
2022  if (items > 2) {
2023   i = items - 2;
2024   args = &ST(2);
2025  }
2026  if (SvROK(wiz)) {
2027   wiz = SvRV_const(wiz);
2028   w   = vmg_wizard_from_sv(wiz);
2029  }
2030  if (!w)
2031   croak(vmg_invalid_wiz);
2032  RETVAL = newSVuv(vmg_cast(SvRV(sv), w, wiz, args, i));
2033 OUTPUT:
2034  RETVAL
2035
2036 void
2037 getdata(SV *sv, SV *wiz)
2038 PROTOTYPE: \[$@%&*]$
2039 PREINIT:
2040  const vmg_wizard *w = NULL;
2041  SV *data;
2042 PPCODE:
2043  if (SvROK(wiz))
2044   w = vmg_wizard_from_sv(SvRV_const(wiz));
2045  if (!w)
2046   croak(vmg_invalid_wiz);
2047  data = vmg_data_get(SvRV(sv), w);
2048  if (!data)
2049   XSRETURN_EMPTY;
2050  ST(0) = data;
2051  XSRETURN(1);
2052
2053 SV *dispell(SV *sv, SV *wiz)
2054 PROTOTYPE: \[$@%&*]$
2055 PREINIT:
2056  const vmg_wizard *w = NULL;
2057 CODE:
2058  if (SvROK(wiz))
2059   w = vmg_wizard_from_sv(SvRV_const(wiz));
2060  if (!w)
2061   croak(vmg_invalid_wiz);
2062  RETVAL = newSVuv(vmg_dispell(SvRV(sv), w));
2063 OUTPUT:
2064  RETVAL