Los lenguajes de programación modernos tienen todo un marco de utilidades y bibliotecas para poder ejecutar esos tests; estos marcos van desde las funciones que te permiten comprobar si el resultado obtenido es igual al deseado, hasta las herramientas de construcción o ejecutores de tareas que se usan, de forma más o menos estándar, en cada lenguaje de programación para lanzar los tests. En este tema veremos de forma integral todos esos aspectos de los tests.
El estudiante habrá programado los tests y los habrá lanzado desde un task runner específico para su lenguaje o genérico.
La entidad principal del problema se habrá implementado en una o varias clases, y cada una de las funciones tendrá un test que se ejecutarán en local. Los tests deberán pasar.
Las pruebas deben de corresponder a las especificaciones que queremos que respete nuestro software, y como tales deben de ser previas a la escritura del código en sí y del test. Es esencial entender perfectamente qué queremos que nuestro software haga, y hay diferentes formas de hacerlo, pero generalmente, en metodologías ágiles, tenemos que hacerlo mediante historias de usuario, narrativas de qué es lo que puede hacer un posible usuario y qué es lo que el usuario debería esperar; ya hemos hablado de ellas en el tema dedicado al diseño. Estas historias de usuario se convertirán en issues del repositorio, agrupados en mojones, cuyo cierre marcará que el código está escrito, testeado, y se ajusta a la misma.
En la mayoría de los lenguajes de programación y especialmente en node
hay dos niveles en el test: el
primero es el marco de pruebas y el segundo la biblioteca (o bibliotecas) de pruebas que
efectivamente se está usando. El marco de pruebas incluirá
generalmente un script que será el que ejecute
todos los tests, examine el resultado y emita un informe, que
dependerá de si los tests se han superado o no.
Para ello, todas las bibliotecas de tests emiten sus resultados en un formato de texto estándar, que se llama TAP. Por eso los marcos de pruebas se pueden usar con cualquier biblioteca de pruebas, incluso de cualquier lenguaje.
Por debajo del marco de pruebas (la biblioteca que permite estructuras las pruebas), a veces existe una biblioteca de aserciones, que son las diferentes pruebas unitarias que se deben pasar o no. En muchos casos, la biblioteca de pruebas incluye ya aserciones; en otros casos, bibliotecas de pruebas pueden trabajar con diferentes bibliotecas de aserciones; en todo caso, lo que siempre existe es una biblioteca de aserciones en todos los lenguajes de programación que permiten comparar el resultado esperado con el resultado obtenido de diferentes formas.
Los tests unitarios deben ser, además, unitarios. Cada aserción debe testear sólo una funcionalidad o característica, de forma que si falla sepamos exactamente cuál ha sido. Además, si el lenguaje de programación se organiza en subtests o funciones que testean algo, cada función debe lanzar tests relacionados sólo con una funcionalidad, si es posible, uno solo. De esa forma, cuando falla un test sólo se tiene que arreglar lo relacionado con esa funcionalidad, y no hay que buscar el error dentro de todas las que se están testeando. El nombre de estas funciones, además, debe ser lo más explícito posible, dejando totalmente claro lo que testea, si es posible usando la misma frase que se use en la historia de usuario.
Go es un lenguaje que pretende evitar lo peor de C++ para crear un lenguaje concurrente, de sintaxis simple y con más seguridad; además, Go provee también un entorno de programación con una serie de herramientas (toolbelt) de serie (su propio task runner). Go integra este marco de pruebas en el propio lenguaje, por lo que nos permite fijarnos exclusivamente en la biblioteca de pruebas con la que estamos trabajando.
Por ejemplo, vamos a fijarnos en esta pequeña biblioteca que lee de un fichero en JSON los hitos de la asignatura Infraestructura Virtual escrita en ese lenguaje, Go. La biblioteca tiene dos funciones, una que devuelve un hito a partir de su ID y otra que te dice cuantos hay.
Los módulos en Go incluyen funciones simples, estructuradas en un
paquete o package. Para testear un paquete en Go simplemente se crea un fichero con el
mismo nombre que el paquete y el sufijo _test
como
el siguiente:
package HitosIV
import (
"testing"
"reflect"
)
func TestHitos (t *testing.T){
t.Log("Test Id");
if CuantosHitos() <= 0 {
t.Error("No milestones")
}
}
func TestTodosHitos (t *testing.T){
t.Log("Test Todos");
these_milestones := Hitos()
if reflect.TypeOf(these_milestones).String() == "Data" {
t.Error("No milestones here")
}
}
Te puedes descargar todo el proyecto con
git clone https://github.com/JJ/HitosIV
o hacerle fork, es software libre. Se agradecen PRs e issues.
La sintaxis no es excesivamente complicada. Se importan las
bibliotecas para testear (testing
) y para averiguar de qué tipo es
algo (reflect
) y se crean dos funciones de test, una por cada función que
queremos probar. Las funciones de deberán empezar por una letra
mayúscula, como sucede aquí. El nombre del paquete es el mismo que el
del paquete que queremos testear.
De este fichero se ejecutarán todas las funciones al
ejecutar desde la línea de órdenes go test
(que sería el marco de
pruebas en este caso), que devolverá algo así:
PASS
ok _/home/jmerelo/Asignaturas/infraestructura-virtual/HitosIV 0.017s
En vez de aserciones como funciones específicas, Go simplifica el
interfaz de pruebas eliminando las aserciones; por el contrario, hace que se devuelva un error (con t.Error()
)
cuando el test no pasa. Si todos funcionan, no hay ningún problema y
se imprime PASS
como se muestra arriba. Adicionalmente, t.Log()
(siendo t
una estructura de datos que se le tiene que pasar a todos
los tests) se usa para mostrar algún mensaje sobre qué está ocurriendo
en el test. En este caso, uno de los tests comprueba que efectivamente
haya hitos en el fichero JSON que se ha pasado, y el segundo comprueba
que el tipo que se devuelve cuando se solicita un hito es el
correcto.
Los tests que se muestran aquí no cubren necesariamente todas las funcionalidades de este módulo; en el repositorio sí están completos. Se muestran solo estos para ilustrar cómo funciona en un lenguaje determinado.
La biblioteca de pruebas (que no de aserciones) usada proporciona, en este caso, una serie de
estructuras de datos que podemos usar para informar de los errores que
se produzcan. La estructura T
, por ejemplo, es la que se recibe como
argumento en cada uno de los tests; tiene funciones como t.Error
para indicar cuando las condiciones del test no se cumplen. Si se usa
ErrorF
se puede dar, como en otros marcos de test, cual es la salida
deseada y la obtenida a partir de una cadena formateada (de ahí el f
).
// Comprueba si el número de hitos es correcto
func TestNumHitosCorrecto(t *testing.T) {
t.Log("Test Número Hitos")
var x uint = uint(CuantosHitos())
if x == 3 {
t.Log("El número de hitos es correcto")
} else {
t.Errorf("El número de hitos es incorrecto; esperábamos %d", 3)
}
}
func TestDemasiadosHitos(t *testing.T) {
var x uint = uint(CuantosHitos())
var too_big uint = x + 3
_, e := Uno( too_big )
if e != nil {
t.Log("Devuelve error si es demasiado grande")
} else {
t.Error("No devuelve error y debería")
}
}
Adicionalmente, se pueden incluir ejemplos de salida que serán comprobados si se precede la salida deseada con la palabra correcta.
Go valora la simplicidad y además incluye de serie todo lo necesario para llevar a cabo los tests. Python, el lenguaje en el que solo hay una buena forma de hacer las cosas (que depende del mes en que uno intente hacerlas), permite que se hagan las cosas de varias formas diferentes, e incluye en su biblioteca estándar una biblioteca de aserciones.
Pero hay
múltiples bibliotecas que se pueden usar;
el panorama de 2019 se presenta en este artículo. La
biblioteca de aserciones assert
forma parte de la estándar de JS, pero hay otras como
Unexpected o aserciones que son parte de marcos
de tests más completos, tales como Chai, Jasmine,
Must.js y jest.
Veamos el siguiente
ejemplo
de uso de la biblioteca de aserciones llamada assert
:
Hace uso de una clase en JavaScript,
Apuesta
, que está en otro repo
var apuesta = require("./Apuesta.js"),
assert= require("assert");
var nueva_apuesta = new apuesta.Apuesta('Polopos','Alhama','2-3');
assert(nueva_apuesta, "Creada apuesta");
assert.equal(nueva_apuesta.as_string(), "Polopos: Alhama - 2-3","Creado");
console.log("Si has llegado aquí, han pasado todos los tests");
Este programa usa assert
directamente y como se ve por la línea del
final, no hace nada salvo que falle. assert
no da error si existe el
objeto, es decir, si no ha habido ningún error en la carga o creación
del mismo, y equal
comprueba que efectivamente la salida que da la
función as_string
es la esperada.
El programa anterior ilustra la sintaxis, y puede formar parte de un conjunto de tests; se puede ejecutar directamente, pero para testearlo los lenguajes de programación usan un segundo nivel, el marco de ejecución de los tests. Estos marcos incluyen programas de línea de órdenes que, a su vez, ejecutan los programas de test y escriben un informe sobre cuáles han fallado y cuáles no con más o menos parafernalia y farfolla. Una vez más, hay varios marcos de testeo para nodejs (y, por supuesto, uno propio para cada uno de los lenguajes de programación, aunque en algunos están realmente estandarizados).
Como algunos marcos de prueba como Chai usan su propia biblioteca de aserciones, podemos hacer este pequeño cambio para usarla:
var assert = require("chai").assert,
apuesta = require(__dirname+"/../Apuesta.js");
console.log(assert);
describe('Apuesta con Chai', function(){
// Testea que se haya cargado bien la biblioteca
describe('Carga', function(){
it('should be loaded', function(){
assert.ok(apuesta, "Cargado");
});
});
describe('Crea', function(){
it('should create apuestas correctly', function(){
var nueva_apuesta = new apuesta.Apuesta('Polopos','Alhama','2-3');
assert.equal(nueva_apuesta.as_string(), "Polopos: Alhama - 2-3","Creado");
});
});
});
Los únicos cambios son el usar assert.ok
en vez de assert
(que
pertenece a Chai), y el objeto assert
de la biblioteca chai
, en
vez de usar el que hay por omisión.
Cada uno de ellos tendrá sus promotores y detractores, pero Mocha, Jasmine y Jest parecen ser los más populares. Los tres usan un sistema denominado Behavior Driven Development, que consiste en describir el comportamiento de un sistema más o menos de alto nivel; para ello suelen incluir una serie de aserciones o su propia biblioteca de aserciones para que la sentencia que lleve a cabo el test sea lo más cercana posible a la frase (en inglés) que la describiría. Como hay que escoger uno y parece que Mocha es más popular, nos quedamos con este para escribir este programa de test.
var assert = require("assert"),
apuesta = require(__dirname+"/../Apuesta.js");
describe('Apuesta', function(){
// Testea que se haya cargado bien la biblioteca
describe('Carga', function(){
it('should be loaded', function(){
assert(apuesta, "Cargado");
});
});
describe('Crea', function(){
it('should create apuestas correctly', function(){
var nueva_apuesta = new apuesta.Apuesta('Polopos','Alhama','2-3');
assert.equal(nueva_apuesta.as_string(), "Polopos: Alhama - 2-3","Creado");
});
});
});
La mayoría de los marcos de tests, y en particular Mocha, pueden usar
diferentes bibliotecas de aserciones. En este caso hemos escogido la que
ya habíamos usado, assert
. A bajo nivel, los tests que funcionen en
este marco tendrán que usar una biblioteca de este tipo, porque Mocha
funciona a un nivel superior, con funciones como it
y describe
que
hacen explícito, a diferentes niveles, el comportamiento que queremos
comprobar. Se ejecuta con mocha
y el resultado de ejecutarlo será:
Apuesta
Carga
✓ should be loaded
Crea
✓ should create apuestas correctly
2 passing (6ms)
(pero con más colorines)
Y la verdad es que debería haber puesto los mensajes en español.
Con la biblioteca BDD de Chai, podríamos expresar los mismos tests de esta forma:
var assert = require("chai").should(),
apuesta = require(__dirname+"/../Apuesta.js");
describe('BDD con Chai', function(){
it('Debería cargar la biblioteca y poder instanciarse', function() {
apuesta.should.exist;
var nueva_apuesta = new apuesta.Apuesta('Polopos','Alhama','2-3');
nueva_apuesta.as_string().should.equal( "Polopos: Alhama - 2-3","Creado");
})
});
La única diferencia es que ejecutamos la función should
de chai
,
que añade a todos los objetos funciones que permite expresar, en
lenguaje más o menos natural, qué es lo que queremos probar: que el
objeto de la biblioteca existe, y que se puede instanciar y que los
resultados que obtienen se pueden convertir a una cadena de la forma
esperada. Como se ve, el marco (que incluye las funciones describe
e
it
) no varía, lo que varía es como se describe el test en sí, que
depende de la biblioteca de aserciones.
Además, te indica el tiempo que ha tardado lo que te puede servir para hacer un benchmark de tu código en los diferentes entornos en los que se ejecute.
Hemos visto dos ejemplos: lenguaje el que la biblioteca de aserciones forma parte de la biblioteca estándar, y lenguaje con múltiples bibliotecas de aserciones para usar; también hay una diferencia entre los lenguajes que incluyen los task runners y los marcos de test dentro de la maquinaria básica, y otros que usan programas externos. Veremos otro ejemplo de esto último.
En Scala, sbt
realiza una función similar a npm
en el mundo
node. Sin embargo, el lenguaje en sí es un poco más estricto y tiene
reglas más o menos precisas sobre dónde colocar los tests. Si las
fuentes están en src/main
, las pruebas estarán en src/test
en el
directorio correspondiente al nombre del paquete. Por ejemplo,
src/test/scala/info/CC_MII/
para el paquete info.CC_MII
que es el
que estamos usando en estos ejemplos.
También Scala tiene diferentes formas de testear. Una similar a la que
hemos usado anteriormente se llama specs2
, una basada en
comportamiento. La usamos por ejemplo a continuación:
package info.CC_MII
import org.specs2.mutable.Specification
class ApuestaSpec extends Specification {
"Apuesta" should {
"almacenar correctamente las variables" in {
val esta_apuesta = new Apuesta( 2,3,"Dude")
esta_apuesta.local must be_==(2)
esta_apuesta.visitante must be_==(3)
esta_apuesta.quien must beEqualTo("Dude")
}
}
}
Tras importar el módulo correspondiente a los tests, estos se agrupan
en una serie de sentencias should
que serán ejecutadas
secuencialmente. En este caso tenemos una sola, en la que creamos una
instancia de la clase y comprobamos que efectivamente tiene los
valores que debe tener. Las órdenes must be_==
y must beEqualTo
comprueban el valor de diferentes tipos y devuelven los valores
correspondientes si se cumple ese comportamiento y si no se cumple.
Este estilo de aserciones se suelen corresponder con Behavior-Driven Development, al nivel más bajo, al menos. En vez de simples funciones o comparaciones, tratamos de que el código de las aserciones se parezca lo más posible a una descripción formal del comportamiento de esas mismas funciones.
En general, en todos los lenguajes habrá dos niveles para llevar a cabo los tests: las aserciones, que permiten ejecutar código (o examinar el resultado del código) y realizar algún tipo de comparación con el resultado deseado, y un segundo nivel que será generalmente un programa, que se encargará de buscar los ficheros de tests siguiendo una convención determinada (nombre del fichero, directorio en el que se encuentre), ejecutarlos, examinar la salida (que, como hemos indicado arriba, sigue un protocolo determinado llamado TAP) y decir si se han pasado todos los tests o no, en cuyo caso se indicará alguna información adicional como qué scripts de tests no se ha pasado o el mensaje de la misma. Algunos programas usados en otros lenguajes son:
-
Ruby usa RSpec, que además está basado en el comportamiento deseado, lo que permite tener descripciones mucho más informativas del test y el resultado del fallo.
-
Perl usa prove, con múltiples opciones de configuración. De hecho, es el que se usa en el test de la asignatura.
-
JUnit es el más cercano en Java.
-
Raku usa prove6, pero también
zef
si se trata de usarlo sobre un módulo (en realidad,zef
usa una serie de heurísticas para aprovechar el marco de pruebas que esté instalado).
Cada lenguaje incluye este tipo de marcos, sea como parte de su distribución base o como parte de alguna biblioteca popular.
Los tests son también programas; simplemente programas que usan una API o librería para informar de los fallos de test que se han producido. Como tales, se pueden ejecutar como se ejecuten los programas en cada lenguaje: compilando o interpretando el programa.
En algunos casos se usan adicionalmente marcos de test; sin embargo, estos marcos de test, en general, sólo interpretan la salida y a veces hacen alguna cosa adicional como establecer caminos de ejecución para encontrar los módulos o ejecutar los tests que sigan la convención general; sin embargo, para ejecutar el programa y probar lo que está haciendo no son, en general, necesarios.
Usar un marco de test con su propio programa, por otro lado, te permitirá ejecutar los tests de forma uniforme para todos los módulos de un lenguaje, y también hacer otras cosas como ejecutarlos en paralelo. Por eso conviene conocerlos, sobre todo porque es lo que se va a usar desde los sistemas de integración continua.
Los errores o excepciones son parte integral de una aplicación como se ha visto anteriormente, y se deben comprobar también; no se pueden testear todos los fallos posibles, pero al menos algunos previsibles y, sobre todo, los que estén previstos en el propio código de nuestra clase.
Casi todas las bibliotecas de aserciones incluyen alguna que permite testear que la excepción que se ha lanzado, o el fallo, es el correcto.
Por ejemplo, en Go, esta función
func Uno(hito_id uint) (Hito,error) {
if hito_id > uint(len(hitos_data.Hitos)) {
return Hito{}, errors.New("Index too high")
}
return hitos_data.Hitos[hito_id], nil
}
debería devolver un error si el id del hito es mayor del admisible, ya que van
por orden. En Go se usa un paquete específico, errors
, para ello, pero en
realidad Go no tiene un sistema de excepciones, sino que confía en esta
convención de retorno dual ( resultado_correcto, error)
para ello. Habrá que
comprobar, por tanto, de la misma forma:
_, e := Uno( too_big )
if e != nil {
t.Log("Devuelve error si es demasiado grande")
} else {
t.Error("No devuelve error y debería")
}
En este caso, como estamos comprobando que se devuelve el error, el primer
resultado no nos interesa y usamos la "variable desechable" de Go, _
.
Adicionalmente podemos comprobar que el error devuelto es el correcto, por
supuesto, pero lo veremos en este otro ejemplo en Raku:
my $milestone = Project::Milestone.new(:$project-name,:milestone-id(1));
throws-like { $milestone.issues }, X::Project::NoIssue,
"Empty milestone throws";
Según la historia de usuario 6 del tema anterior, un hito sin issues está en un estado incorrecto; también diseñamos una excepción para esto. En este caso comprobamos que esa historia se cumple: devolvemos la excepción correcta si no hemos añadido ningún issue al hito.
En las fases del proceso de prueba:
-
Planificación: en esta fase se decide cuantos tests se van a ejecutar.
-
Durante el setup se crearán los objetos y cargarán los ficheros necesarios hasta poner nuestro objeto en un estado en el que se puedan llevar a cabo los tests. Esto puede incluir, por ejemplo, también crear esos objetos. En esta fase se pueden crear lo que se denominan fixtures: son simplemente objetos que, si no funciona su creación, algo va mal, pero si funciona se usan como base para el resto de los tests.
-
A continuación se llevan a cabo las pruebas en sí; esas pruebas pueden estar agrupadas en subtests, y en el caso de que falle un subtest fallará el test del que depende completo.
-
En la fase de teardown se limpia todo lo creado temporalmente, se cierran conexiones, y se deja al sistema, en general, en el mismo estado en el que estaba al principio.
Diferentes lenguajes tienen diferentes técnicas, más o menos formales,
para llevar a cabo las diferentes fases. Normalmente es parte de la
biblioteca de aserciones decidir si una parte del código se va a
ejecutar o no. Por ejemplo, en los tests en Perl que
se pasan en este mismo repositorio, nos interesa ejecutar algunos sólo
cuando se trata de un pull request
. Usamos esto:
# Carga bibliotecas...
unless ( $ENV{'TRAVIS_PULL_REQUEST'} ) {
plan skip_all => "Check relevant only for PRs";
}
# Resto del programa
En Perl se usa la biblioteca de aserciones Test::More
. Por omisión,
se trabajará sin plan y los tests terminarán cuando se ejecute
done_testing
. Se le puede decir también cuantos tests de van a
ejecutar; todo ello con la orden plan
. Pero también se puede usar
esta orden para indicarle, como aquí, skip_all
, que se salte los
tests a menos que (unless
) Travis nos haya indicado (a través del
valor de una variable de entorno) que se trata de un pull request
.
En la fase de planificación se deben decidir cuantos tests se van a ejecutar. Aunque la respuesta obvia podría ser "todos", lo cierto es que los tests van a variar dependiendo del entorno. Para empezar, hay que decidir si va a haber algún plan (es decir, si sabemos de antemano el número de tests) o simplemente se van a ejecutar a continuación todos los tests que nos encontremos.
Tras la planificación, que es implícita en muchos marcos de tests y bibliotecas, se ejecutará la fase de setup. Esta fase, en muchos casos, se tratará simplemente de las primeras órdenes de un script para organizarlo, y los últimos para cerrar las pruebas.
Por ejemplo, en Raku estas serían las primeras líneas de un test:
use Test;
use Project::Issue;
use Project::Milestone;
use Project;
constant $project-name = "Foo";
my $issue-id = 1;
my $p = Project.new( :$project-name );
En este caso lo único que se hace es crear un objeto, que es sobre el que van a recaer los tests más adelante. En el caso del módulo similar, para hitos de una asignatura, en Go, tendremos esto:
func TestMain(m *testing.M) {
ReadsFromFile("./hitos_test.json") // Alternative test file
os.Exit(m.Run())
}
go test
llamará a la función TestMain
del paquete antes que a
cualquier otra función. El argumento que recibirá no es de tipo
testing.T
, como en el resto de los casos, sino testing.M
; esta
función actuará como setup, en este caso leyendo de un fichero que
cargará la estructura de datos sobre la que actuarán el resto de los
tests. De hecho, el resto de los tests tenemos que llamarlos
explícitamente (con m.Run
) y también que salir explícitamente del
main
usando os.Exit
, que devolverá el código de salida adecuado.
TypeScript es un lenguaje con tipado gradual, que funciona también de forma asíncrona. Podemos programar el issue que hemos usado anteriormente de esta forma:
export enum State { Open,Closed };
export class Issue {
private state: State = State.Open;
private project_name: string;
private id: number;
constructor(project_name: string, id: number) {
this.project_name = project_name;
this.id = id;
}
show_state() {
return this.state;
}
close() {
this.state = State.Closed;
}
}
Aparte de usar this
para referirse a la instancia de la clase, el
resto es similar a otros lenguajes. Lo podemos testear usando el marco
de pruebas jest
import { Issue, State } from '../Project/Issue';
var data: Issue;
beforeAll(() => {
data = new Issue("Foo",1);
});
test("all", () => {
expect( data.show_state() ).toBe( State.Open );
data.close();
expect( data.show_state() ).toBe( State.Closed );
});
jest
usa una serie de aserciones basadas en el comportamiento, y
fases de setup generales (con beforeAll
), con otras adicionales
antes y después de cada uno de los tests. Esas funciones devolverán
promesas; hasta que no se cumplan no se procederá a llevar a cabo el
resto de los tests (en este caso) o los tests correspondientes. En
este caso, sin embargo, es una simple inicialización de un dato, que
se va a ejecutar siempre. Como los tests se llevan a cabo de forma
asíncrona, sin embargo, de esta forma nos aseguramos que cuando se
ejecute el código de los mismos esté presente.
Elixir no es un lenguaje que maneje con soltura, pero puede ser interesante como
ejemplo de uno que incluye una utilidad externa al compilador, mix
, con la
cual se pueden expresar cosas como la versión del lenguaje con la que vamos a
trabajar (ver de nuevo la aplicación de 12 factores). También porque está a medio camino entre la orientación a objetos y la funcionalidad.
Implementaremos solo
parte de la funcionalidad para gestionar un issue:
defmodule Issue do
@moduledoc """
A simple issue in a repository
"""
@enforce_keys [:projectname, :id]
defstruct [:projectname, :id, state: :Open ]
@doc """
Can create and close it, and that's it
"""
def close( issue ) do
issue |> struct( %{state: :Closed} )
end
@doc """
Reopens issue
"""
def reopen( issue ) do
issue |> struct( %{state: :Open} )
end
end
Hay unos pocos más dos puntos de la cuenta, pero al final lo que hace es definir
un Issue
con una función para cerrarlo; esta función lo que hace, en
realidad, es generar un nuevo issue con solo ese campo cambiado, ya que las
estructuras de datos en Elixir son inmutables
. Por eso lo
tenemos que testear de esta forma
defmodule IssueTest do
use ExUnit.Case
doctest Issue
setup_all do
this_issue = %Issue{ projectname: 'Foo', id: '1'}
{:ok, issue: this_issue}
end
test "Initial issue state",context do
assert context[:issue].state == :Open
end
test "State after closing",context do
new_issue = Issue.close(context[:issue])
assert new_issue.state == :Closed
end
test "State after reopening",context do
new_issue = Issue.reopen(context[:issue])
assert new_issue.state == :Open
end
end
ExUnit
es el módulo de Elixir para pruebas unitarias, y usa setup_all
para
la fase de puesta a punto; en ella creamos un issue, y la estructura de datos
que se devuelve en ella estará disponible como context
, un hash que usamos
para comprobar si efectivamente el issue creado está abierto y para crear una
nueva versión del issue cerrado.
Para testear, simplemente ejecutamos mix test
; Elixir es un tipo de lenguaje
que usa una herramienta de construcción estándar como Node. El repositorio está
en GitHub.
Python, a base de no querer extender la sintaxis, acaba añadiendo conceptos y construcciones sintácticas para temas inesperados, como por ejemplo los objetos que se crean en la fase de setup de los tests, que se denominan fixtures, y tienen su sintaxis específica. Para testear la clase Issue
que hemos generado anteriormente, se usarían fixtures de esta forma:
import pytest
from Project.Issue import Issue, IssueState
PROJECTNAME = "testProject"
ISSUEID = 1
@pytest.fixture
def issue():
issue = Issue(PROJECTNAME,ISSUEID)
return issue
def test_has_name_when_created(issue):
assert issue.projectName == PROJECTNAME
def test_has_id_when_created(issue):
assert issue.issueId == ISSUEID
def test_is_open_when_created(issue):
assert issue.state == IssueState.Open
def test_is_closed_when_you_close_it(issue):
issue.close()
assert issue.state == IssueState.Closed
def test_is_open_when_you_reopen_it(issue):
issue.reopen()
assert issue.state == IssueState.Open
fixture
es una orden de pytest, y es un decorador, por eso lleva la arroba delante. En la práctica, crea un objecto del mismo nombre que la función que se decora que es el que vamos a usar en el resto de los tests, tal como se ve aquí. En este caso usamos la librería de aserciones de pytest
también, ya puestos.
A partir del diseño creado en la anterior actividad, y siguiendo las prácticas de uso de los issues (y su cierre desde un commit), crear una o varias clases básicas que correspondan a la misma entidad (según el dominio del problema que se haya elegido), por supuesto incluyendo los tests correspondientes. Los tests se ejecutarán en local, por lo pronto.
Se editará el fichero qa.json
añadiéndole, además, la siguiente clave (sin borrar las anteriores)
{
"test" : "fichero_de_test.ext"
}
En vez de este nombre ficticio, se usará el nombre del fichero de construcción que se haya usado para ejecutar los tests, que tendrá que estar presente en el repositorio.