tl.testing

Software captura de pantalla:
tl.testing
Detalles de software:
Versión: 0.5
Fecha de carga: 15 Apr 15
Promotor: Thomas Lotze
Licencia: Libre
Popularidad: 5

Rating: nan/5 (Total Votes: 0)

tl.testing ofrece varias utilidades que se pueden utilizar al escribir pruebas. & Nbsp; Es compatible con las versiones de Python 2.6 y 2.7.
Los areneros de los directorios y archivos
Al probar el código que modifica los directorios y archivos, es útil ser capaz de crear e inspeccionar un árbol muestra de directorios y archivos con facilidad. El módulo tl.testing.fs proporciona soporte para la creación de un árbol a partir de una descripción textual, listado en el mismo formato y limpiar después de sí mismo.
En una prueba de doc, estas instalaciones pueden ser utilizadas como este para crear y listar un directorio, un archivo y un enlace simbólico:
>>> de tl.testing.fs new_sandbox importación, ls
>>> New_sandbox ("" ​​"
... D foo
... Foo f / bar asdf
... L baz -> foo / bar
... "" ")
>>> ls ()
l baz -> foo / bar
d foo
f foo / bar asdf
Ver el fs.txt archivo encontrado con el código fuente para más información, incluyendo cómo configurar y derribar pruebas utilizando cajas de arena del sistema de archivos.
Instalación de guiones exigibles
Algunas funciones de uno podría querer probar hace uso de programas externos, como un localizador o un editor de texto. El módulo tl.testing.script proporciona utilidades que instalan los scripts simples simulacros en lugares donde el código a ensayar las encontrarán. Toman una cadena de código Python y crear un guión envoltorio que establece la ruta de Python para que coincida con la de la prueba y se ejecuta el código.
Así es como un guión tan simulacro podría ser utilizado en una prueba doc:
>>> De importación tl.testing.script instalar
>>> Script_path = instalar ("print" Un simple script. '")
>>> Abierta (script_path) .read print ()
#! ...

import sys
sys.path [:] = [...]

print 'Un simple script.
>>> Subproceso de importación
>>> Sub = subprocess.Popen (script_path, shell = True, stdout = subprocess.PIPE)
>>> Stdout, stderr = sub.communicate ()
>>> Stdout impresión
Un simple script.
Ver el script.txt archivo encontrado con el código fuente de nuevas posibilidades de cómo instalar y acceder a los scripts simulacros, así como la manera de derribar pruebas utilizando guiones de simulacros.
Doc-probar el contenido gráfico de las superficies cairo
Si bien es directa para comparar el contenido de dos superficies cairo en código Python, manejo de gráficos está más allá de las pruebas de doc. Sin embargo, el paquete manuel puede ser utilizado para extraer casos de prueba más generales a partir de un documento de texto al tiempo que permite mezclarlas con pruebas doc de una manera natural.
El módulo tl.testing.cairo ofrece un conjunto de pruebas de la fábrica que utiliza manuel para ejecutar pruebas gráficas formulados como figuras de texto reestructurado. La leyenda de una figura como se supone que es una expresión de Python literal cuyo valor es una superficie cairo, y su imagen se utiliza como la expectativa de prueba.
Así es como una superficie podría compararse con una imagen esperada en una prueba doc:
>>> Cairo importación
>>> From pkg_resources resource_filename importación
>>> Imagen = resource_filename ('tl.testing', 'testimages / correct.png')
.. Figure :: tl / pruebas / testimages / correct.png
& Nbsp; `` cairo.ImageSurface.create_from_png (imagen) ``
Ver el cairo.txt archivo encontrado con el código fuente para más información y documentación de la salida de prueba posible.
Trabajar con hilos en el código de prueba
La clase TestCase norma no recoge los errores y fracasos que se produjeron en otros hilos que la principal. El módulo tl.testing.thread proporciona clases de rosca y una clase ThreadAwareTestCase para permitir sólo que, así como algunas otras comodidades para las pruebas que se ocupan de hilos: la prevención de excepciones no controladas esperados en hilos de ser impreso con la salida de prueba, hilos de informes dejaron por una prueba, la ejecución de código en un hilo de utilidad, uniéndose a las discusiones y contando las discusiones iniciadas durante el tiempo de ejecución de la prueba:
>>> Import time
>>> Tl.testing.thread importación
>>> Clase Sampletest (tl.testing.thread.ThreadAwareTestCase):
...
... Def test_error_in_thread_should_be_reported (self):
... Con tl.testing.thread.ThreadJoiner (1):
... Self.run_in_thread (lambda: 1/0)
...
... Def test_active_count_should_count_only_new_threads (auto):
... Con tl.testing.thread.ThreadJoiner (1):
... Self.run_in_thread (lambda: time.sleep (0.1))
... Self.assertEqual (1, self.active_count ())
... Self.assertEqual (0, self.active_count ())
>>> Unittest importación
>>> Run (unittest.makeSuite (Sampletest))
================================================== ====================
ERROR: test_error_in_thread_should_be_reported (__builtin __ Sampletest.)
-------------------------------------------------- --------------------
Rastreo (llamadas recientes más última):
& Nbsp; ...
ZeroDivisionError: división entera o módulo por cero
-------------------------------------------------- --------------------
Ran 2 pruebas en N.NNNs
FALLADO (errores = 1)
Vea el archivo thread.txt encontró con el código fuente para obtener más detalles de la clase ThreadAwareTestCase.
La construcción de conjuntos de pruebas que utilizan manuel
Como manuel ofrece algunas características de gran alcance, además de prueba unitaria estándar, suites de prueba manuel se configuran de forma ligeramente diferente de las normales. El módulo tl.testing.doctest implementa una fábrica DocFileSuite que puede ser utilizado como el estándar, sino que crea un conjunto de pruebas utilizando manuel y permite una configuración adicional relacionada con manuel, entre ellas la capacidad de interpretar las notas que solían hacerse utilizando el obsoleto zope.testing.doctest:
>>> Sample_txt = write ('sample.txt', "" "
... [#footnote] _
... >>> X
... 1
...
... .. [#footnote]
... >>> X = 1
... "" ")
>>> From tl.testing.doctest DocFileSuite importación
>>> Run (DocFileSuite (sample_txt, notas al pie = true))
-------------------------------------------------- --------------------
Ran 1 prueba en N.NNNs
OK
>>> Sample_txt = write ('sample.txt', "" "
... .. Code-block :: python
... X = 1
...
... >>> X
... 1
... "" ")
>>> Manuel.codeblock importación
>>> Run (DocFileSuite (sample_txt, manuel = manuel.codeblock.Manuel ()))
-------------------------------------------------- --------------------
Ran 1 prueba en N.NNNs
Aceptar

Requisitos :

  • Python

Programas parecidos

Tcpreplay
Tcpreplay

7 Mar 16

DoctorJ
DoctorJ

11 May 15

Otro software de desarrollador Thomas Lotze

tl.pkg
tl.pkg

15 Apr 15

Ophelia
Ophelia

15 Apr 15

Comentarios a la tl.testing

Comentarios que no se encuentran
Añadir comentario
A su vez en las imágenes!