Sistemas de IA desarrollados con estos lenguajes



OptaPlanner es un solucionador de restricciones de código abierto. Resuelve problemas de satisfacción de restricciones con heurísticas de construcción y algoritmos metaheurísticos, utilizando resolución incremental multiproceso. OptaPlanner está escrito en Java y también funciona en Kotlin y Scala.

El desarrollo de OptaPlanner está patrocinado por Red Hat, que vende una suscripción de soporte empresarial para él.

OptaPlanner (antes Drools Planner) es un motor de planificaciones open source (licencia Apache) 100% Java, permite optimizar la planificación de recursos, es decir es capaz de planificar un conjunto de recursos (tiempo, empleados, activos, presupuesto) para proveer productos o servicios a los clientes.


OptaPlanner es un motor ligero que se puede embeber en aplicaciones Java, ya que es capaz de aplicar las restricciones a los POJOs Java de forma sencilla y sin aplicación de fórmulas.

OptaPlanner combina mecanismos de optimización heurísticas y metaheurísticas.

Entre los casos de uso que soporta están optimización de rutas de vehículos, asignación de empelados, planificación de tareas, empaquetados,...



Transformer 3 preentrenado generativo (GPT-3) es un modelo de lenguaje autorregresivo que utiliza el aprendizaje profundo para producir texto similar al humano.

Es el modelo de predicción de lenguaje de tercera generación en la serie GPT-n (y el sucesor de GPT-2) creado por OpenAI, un laboratorio de investigación de inteligencia artificial con sede en San Francisco. La versión completa de GPT-3 tiene una capacidad de 175 mil millones de parámetros de aprendizaje automático. GPT-3, que se introdujo en mayo de 2020 y estaba en prueba beta en julio de 2020, es parte de una tendencia en los sistemas de procesamiento del lenguaje natural (NLP) de representaciones de lenguaje previamente entrenadas.

La calidad del texto generado por GPT-3 es tan alta que puede ser difícil determinar si fue escrito por un ser humano o no, lo que tiene tanto beneficios como riesgos. Treinta y un investigadores e ingenieros de OpenAI presentaron el documento original del 28 de mayo de 2020 que presenta GPT-3. En su artículo, advirtieron sobre los peligros potenciales de GPT-3 y pidieron investigación para mitigar el riesgo. : 34 David Chalmers, un filósofo australiano, describió a GPT-3 como "uno de los sistemas de IA más interesantes e importantes jamás producidos.

El sesenta por ciento del conjunto de datos de preentrenamiento ponderado para GPT-3 proviene de una versión filtrada de Common Crawl que consta de 410 mil millones de tokens codificados por pares de bytes. Otras fuentes son 19 mil millones de tokens de WebText2 que representan el 22% del total ponderado, 12 mil millones de tokens de Books1 que representan el 8%, 55 mil millones de tokens de Books2 que representan el 8% y 3 mil millones de tokens de Wikipedia que representan el 3%: 9 GPT-3 se entrenó en cientos de miles de millones de palabras y es capaz de codificación en CSS, JSX, Python, entre otros.