Ayuda
Ir al contenido

Dialnet


La loi généralisée de appariement: une simulation de Monte-Carlo

    1. [1] University of Quebec at Montreal

      University of Quebec at Montreal

      Canadá

  • Localización: Acta comportamentalia: revista latina de análisis del comportamiento, ISSN 0188-8145, Vol. 22, Nº. 2, 2014, págs. 169-179
  • Idioma: francés
  • Títulos paralelos:
    • The generalized matching law: a Monte Carlo simulation
  • Enlaces
  • Resumen
    • English

      The generalized matching law (GML) is a descriptive mathematical model that conceptualizes an organism’s response ratios as a function of associated reinforcer ratios (Baum 1974). The matching equation has been used in several experimental and natural studies and results frequently showed explained variances (r2) over 80% and sensitivity of 0.80 (Davison & McCarthy 2010). This high level of r2 might suggest that constraints within operant conditioning procedures may inflate GML parameters. For instance, in most operant procedures, such as a concurrent variable-interval schedule of reinforcement, the amount of reinforcers obtained is always lower or equal to the amount of responses, which can be seen as an emergent propertyof feedback functions. The purpose of the current study is to apply the GML to pseudorandomly sampled data in which this constraint has been computed. A Monte Carlo simulation shows that the generalized matching law explained on average 47 % of the variance, with sensitivity around a value of 0.60 and bias of log c = 0.00. Results found in the current study could be used as an alternative null hypothesis for future studies in natural settings. For instance, explained variances of 0.62, 0.80, and 0.97 could be qualify, respectively, as small, medium and large differences compared to 0.47. The current study is finally compared to McDowell’s (2004) simulations. McDowell computed behavioral processes, such as the selection by consequences (Skinner, 1981), within the organism whereas the current study investigates environmental and observational constraints on the regressions estimates. Current results suggest further investigations of underlying environmental constraints when studying the GML. Futures studies are necessary to assess what to expect from the GML when such constraints occur in the operant conditioning procedure.

    • français

      La loi généralisée de l’appariement (LGA) est un modèle descriptif conceptualisant le ratio des réponses en fonction du ratio des renforçateurs (Baum, 1974). Les résultats des études montrent généralement une sensibilité autour de 0,80 et des variances expliquées (r2) supérieures à 0,80 (Davison & McCarthy, 1988). Les r2 très élevés de la LGA suggèrent la présence de contraintes inhérentes à la plupart des situations opérantes.

      Dans un programme de renforcement concurrent à intervalle variable, par exemple, la quantité de renforçateurs ne peut surpasser la quantité de comportements émis. L’objectif de la présente étude est de simuler les résultats de la LGA lorsque cette contrainte est implantée à des échantillons pseudoaléatoires. Au total, seize conditions sont répliquées 1 500 fois, représentant 24 000 essais. Les résultats montrent que la LGA obtient en moyenne un r2 de 47 %, une sensibilité de 0,60 et un biais nul. Les résultats suggèrent que des r2 de 0,62, 0,80 et 0,97 sont qualifiables, respectivement, de petite, moyenne et forte différence comparativement à 0,47. La perspective de la présente étude est comparée aux simulations de McDowell (2004) et des pistes de recherche futures sont présentées.


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus

Opciones de compartir

Opciones de entorno