-
Notifications
You must be signed in to change notification settings - Fork 0
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
Nociones sobre Prompt Engineering #4
Comments
Documentación de LLMResultados y enlacesBlog interesante sobre las limitaciones con enlaces a proyectos de GitHub: Bases sobre prompt engeneering con ejemplos de respuestas y razonamientos: Guía muy completa sobre gran cantidad de temas: ComentariosHe estado buscando información sobre la aplicación de los LLM a quizz por si ya se había hecho algo similar pero está más enfocado en utilizar la ia para generar las propias preguntas en vez de pruebas, por lo que me he centrado en formas de aplicar las restricciones a una ia para el contexto de pistas que tenemos. Primer EnlaceSobre el primer blog, en conclusiones da algunos términos que pueden ser interesantes a la hora de tomar ejemplos: Prompt tuning is a powerful tool for guiding the model's output. By carefully crafting the input prompt, one can influence the model's responses. However, this method requires a deep understanding of how the model interprets prompts and may not always yield consistent results due to the inherent randomness in the model's output. Logit filtering is a more advanced technique that involves manipulating the model's logits to prevent it from generating certain words or phrases. This method can be highly effective, but it requires a deep understanding of the model's inner workings and can be computationally expensive. Parameter tuning, such as adjusting the temperature and top-k sampling, provides a way to control the randomness and diversity of the model's output. While these methods offer a degree of control, they do not guarantee the elimination of harmful or inappropriate content. Guardrails are a proactive approach to limit the model's output by setting predefined rules or boundaries. This method can be effective in preventing the model from generating certain types of content. However, it may also limit the model's creativity and versatility, and there's always a risk that some unwanted content may slip through. Parsing involves analyzing the model's output after it has been generated, allowing for the removal or modification of unwanted content. This method can be effective, but it is reactive rather than proactive, meaning that harmful or inappropriate content may be generated before it is caught and removed. Si vais al link, en todos hay ejemplos y enlaces a proyectos interesantes de GitHub. Segundo enlaceYa ha incluido David algunas cosas muy interesantes sobre las bases por lo que he añadido otra donde además añade ejemplos y respuestas de la IA así como recomendaciones básicas y avanzadas. Aquí os pongo las básicas para que no tengáis que buscar dentro: In this section of the guide we have compiled a list of best practices that tend to improve the prompt results:
Además habla de otro término muy interesante llamado "Chain-of-thought" en https://huggingface.co/docs/transformers/main/en/tasks/prompting#chain-of-thought. Que trata de mostrar el razonamiento de algo para ir mejorando el resultado, no se si es aplicable a nuestro caso con las preguntas pero al menos lo veo interesante de mencionar: hain-of-thought (CoT) prompting is a technique that nudges a model to produce intermediate reasoning steps thus improving the results on complex reasoning tasks. There are two ways of steering a model to producing the reasoning steps:
Tercer enlaceEl tercer enlace lo dejo pues tiene gran cantidad de términos y cosas interesantes. Si tenéis alguna duda hay cosas como:
|
Como base para hacer buenos prompts, aquí se enumeran los pasos a seguir y las técnicas a aplicar para lograr los mejores resultados:
Atacando la parte más práctica del problema, os redirijo a la siguiente conversación con ChatGPT:
En la cual se mencionan ideas para mejorar las respuestas de la IA e incluso implementaciones y ejemplos de dichas ideas.
The text was updated successfully, but these errors were encountered: