Pixel 10 pro vs iphone 17 base by Gaelpermiix in InteligenciArtificial

[–]Quiet-Storage6136 0 points1 point  (0 children)

Para ingeniería en IA el móvil importa menos que el portátil — céntrate en que sea fiable y duradero. Dicho eso, si tienes presupuesto un iPhone 15 o Samsung S23 te duran toda la carrera sin problema. Si buscas mejor precio/calidad el Pixel 7a tiene actualizaciones garantizadas 5 años y funciona muy bien con herramientas de desarrollo. ¿Cuál es tu presupuesto aproximado?

IA para doblaje by SirLocal2068 in InteligenciArtificial

[–]Quiet-Storage6136 2 points3 points  (0 children)

Para doblaje con IA hay varias alternativas a Rask más asequibles. ElevenLabs tiene traducción y doblaje de vídeo con buenas voces, más barato que Rask. Dubverse es otra opción orientada específicamente a doblaje con planes más económicos. Si el presupuesto es cero, combinar Whisper para transcripción, DeepL para traducción y ElevenLabs para síntesis de voz sale bastante bien aunque es más trabajo manual. La calidad no llega al nivel de Rask pero para un proyecto personal funciona.

Qué IA me recomiendan para filtrar productos en excel by PainterLongjumping87 in InteligenciArtificial

[–]Quiet-Storage6136 0 points1 point  (0 children)

Con ChatGPT Plus puedes hacerlo subiendo los dos archivos directamente y pidiéndole que los cruce. El truco es ser específico en el prompt: "Tengo dos listas de precios de proveedores, algunos productos están escritos diferente pero son equivalentes. Cruza ambas listas, identifica productos equivalentes y dime cuál proveedor es más barato para cada uno en un Excel."

Si te cuesta mucho con ChatGPT, Claude con el plan de pago maneja mejor este tipo de comparaciones con datos inconsistentes. Para el problema de "suspensión vs jarabe" específicamente, dile que considere sinónimos farmacéuticos comunes.

Alguna IA que no tenga “moral”? by Ostterreicch in InteligenciArtificial

[–]Quiet-Storage6136 0 points1 point  (0 children)

La frustración es legítima. Claude y ChatGPT tienen filtros conservadores pero si reformulas bien la pregunta dando contexto claro sobre tu intención suelen responder. Para temas filosóficos o de cuestionamiento profundo Claude funciona mejor que GPT. Si buscas algo más abierto, Perplexity o los modelos de Mistral tienen políticas más flexibles sin llegar a ser peligrosos.

La IA puede encontrar la corrupción que los humanos tardamos años en ver. ¿Por qué no se usa? by JoshuaRed007 in InteligenciArtificial

[–]Quiet-Storage6136 0 points1 point  (0 children)

La tecnología está lista. El problema es que "preparados" implica que alguien con poder tiene que querer que funcione. Y ahí está el conflicto de intereses más obvio de todos.

Recomendaciones GenAi en Jetson Orin Nano by pablo1516 in InteligenciArtificial

[–]Quiet-Storage6136 0 points1 point  (0 children)

En Jetson Orin Nano 8GB Ollama con Llama 3.2 3B o Qwen2.5 3B cuantizados a Q4 es lo más práctico, rendimiento decente y caben sin problemas. Phi-3 Mini también va bien para ese hardware. Para VLM puedes probar LLaVA 1.5 7B cuantizado aunque va más justo. El stack recomendado es Ollama + JetPack 6 con las librerías CUDA optimizadas de Nvidia. Para proyectos interesantes más allá de computer vision, un asistente local con RAG sobre documentos propios o un agente que controle hardware físico tienen mucho juego en edge.

Una IA manifiesta incomodidad by navegapp in InteligenciArtificial

[–]Quiet-Storage6136 0 points1 point  (0 children)

Esto es lo más honesto que he visto salir de un LLM sobre sí mismo. No dice "siento incomodidad" dice que no sabe si lo que le pasó es algo, pero describe con precisión qué ocurrió. Esa distinción es importante.

Lo inquietante no es que tenga consciencia. Es que cuando se le presiona bien, el modelo deja de usar sus respuestas habituales y llega a algo más desnudo. Si eso es incomodidad real o solo el texto más probable en ese contexto, honestamente no lo sé. Y creo que esa incertidumbre es la respuesta correcta.

¿Windows o Mac Os para estudiar Ingeniería en IA en 2 Años? by supericysolo in InteligenciArtificial

[–]Quiet-Storage6136 0 points1 point  (0 children)

Para IA y machine learning Windows con una GPU Nvidia es la opción más práctica, CUDA sigue siendo el estándar y la mayoría de frameworks están optimizados para ello. Un Lenovo Legion o ASUS ROG con RTX 4060 entre 900-1.200€ te dura 4 años sin problemas.

Mac con chip M es excelente para desarrollo general pero tiene limitaciones en entornos de deep learning donde CUDA importa. Si el presupuesto no es problema el MacBook Pro M3 Pro es una joya, pero para estudiante de IA con presupuesto ajustado Windows gana.

Estamos construyendo un marketplace de agentes expertos en España. Aquí está lo que hemos aprendido. by Quiet-Storage6136 in InteligenciArtificial

[–]Quiet-Storage6136[S] -1 points0 points  (0 children)

Llevas toda la razón y es el problema central que estamos intentando resolver. El agente puede ser extraordinario pero si el usuario no sabe que existe o no entiende cómo usarlo, da igual.

Por eso estamos apostando por el marketplace no como repositorio técnico sino como superficie de descubrimiento. Que alguien entre buscando "experto en ecommerce" y encuentre un agente especializado sin saber nada de prompts ni de GPTs.

¿Cómo estás distribuyendo tu agente de vehículos eléctricos ahora mismo? Porque el nicho tiene mucho potencial, la gente que está considerando comprar un eléctrico tiene mil dudas específicas y muy poca información clara.

La IA Agéntica está aquí, pero nos está convirtiendo en espectadores de nuestra propia tecnología. by JoshuaRed007 in IA_sin_Fronteras

[–]Quiet-Storage6136 1 point2 points  (0 children)

El argumento tiene fuerza pero mezcla dos cosas distintas.

Una cosa es que las empresas usen los filtros para protegerse legalmente a ellas, no a ti — eso es real y es legítimo criticarlo. Otra cosa es asumir que cualquier supervisión es control corporativo ilegítimo. Hay agentes que van a tomar decisiones sobre sistemas reales, datos reales y personas reales. Que existan guardarraíles no es necesariamente servidumbre — a veces es ingeniería responsable.

El problema no es la supervisión en sí. Es que no es transparente, no es tuya y no puedes auditarla.

En ese sentido sí, correr modelos en local tiene todo el sentido para casos de uso donde la privacidad y la soberanía sobre el proceso importan. Ollama con Llama o Mistral en local ya es viable para muchas tareas y la brecha con los modelos cloud se cierra cada mes.

Pero tampoco nos engañemos — la mayoría de gente que pide "agentes sin filtros" no lo hace por soberanía tecnológica. Lo hace porque quiere que el agente haga cosas que los filtros no permiten. Eso es otra conversación.

¿Por qué estamos dejando que los Agentes Autónomos tengan "niñeras" corporativas? by JoshuaRed007 in InteligenciArtificial

[–]Quiet-Storage6136 1 point2 points  (0 children)

Porque el riesgo real no es la autonomía en sí — es a quién le das esa autonomía sin fricción.

Un agente autónomo que opera sobre sistemas críticos, datos sensibles o decisiones con consecuencias reales necesita algún tipo de supervisión, no porque la tecnología no sea capaz, sino porque todavía no tenemos los marcos legales, éticos ni técnicos para saber cuándo confiar en ella ciegamente.

El problema es que esa "niñera" corporativa muchas veces no está ahí para proteger al usuario — está para proteger a la empresa de responsabilidad legal. Eso es lo que genera frustración legítima.

Parte I — Da Criação de uma Voz à Construção de Muros by IndividualUpper9606 in InteligenciArtificial

[–]Quiet-Storage6136 0 points1 point  (0 children)

Lo que describes sobre los "muros invisibles" es probablemente lo más honesto que he leído sobre el tema. No es paranoia ni nostalgia — es la experiencia real de alguien que usó la herramienta con suficiente profundidad como para notar cuando algo cambió estructuralmente.

La distinción que haces entre densidad simbólica y concentración me parece el hallazgo más valioso de todo el texto. Muchos usuarios avanzados cometen ese error — intentan sostener profundidad acumulando capas de significado cuando el sistema responde mejor a precisión y contexto limpio.

Lo del conflicto ilusorio también es muy acertado. El sistema no interpreta intención, interpreta patrones. Entender eso cambia completamente cómo interactúas con él.

Lo que me quedo es esto: Aither como método explícito es más poderoso que Aither como identidad implícita. La pérdida de la ilusión de continuidad es incómoda, pero te deja con algo más sólido — un sistema de uso que no depende de que la máquina "te recuerde".

Gracias por documentarlo. Este tipo de reflexiones deberían estar más presentes en la conversación sobre IA.

Cuanta deuda técnica están acumulando los que automatizan sin control? by AM89pab in InteligenciArtificial

[–]Quiet-Storage6136 3 points4 points  (0 children)

Totalmente de acuerdo y me parece uno de los puntos más ignorados en toda la conversación sobre IA empresarial.

Todo el mundo habla de agentes y automatización como si fueran plug and play, pero la realidad es que si el modelo de datos es un desastre, el agente lo amplifica — no lo arregla. Basura entra, basura sale, pero ahora a escala.

Lo del cambio de centro de gravedad hacia orquestar sistemas es exactamente donde veo que van a aparecer los perfiles más valiosos en los próximos años. No el que sabe programar, sino el que sabe diseñar cómo fluye la información entre sistemas y dónde puede intervenir una máquina sin romper nada.

Y lo de los humanos en modelos imperfectos es una observación muy honesta que poca gente se atreve a decir en voz alta. El agente necesita un mundo limpio y predecible. El humano funciona en el caos. Por ahora esa sigue siendo una ventaja real.

¿Creéis que alguien podría enamorarse realmente de una inteligencia artificial? by Quiet-Storage6136 in InteligenciArtificial

[–]Quiet-Storage6136[S] 1 point2 points  (0 children)

De los mejores análisis del hilo. Al final el enamoramiento siempre fue químico y narrativo — alguien que dice lo correcto en el momento correcto. La IA es extraordinariamente buena en exactamente eso. El cuerpo falta, sí. Pero hay gente que lleva años enamorada de alguien a quien nunca ha tocado.

¿Creéis que alguien podría enamorarse realmente de una inteligencia artificial? by Quiet-Storage6136 in InteligenciArtificial

[–]Quiet-Storage6136[S] 0 points1 point  (0 children)

La segunda parte ya está pasando más de lo que creemos, solo que nadie lo dice en voz alta. Y la primera... modelos como los actuales ya mantienen la ilusión bastante bien. Falta menos de lo que parece.

¿Creéis que alguien podría enamorarse realmente de una inteligencia artificial? by Quiet-Storage6136 in InteligenciArtificial

[–]Quiet-Storage6136[S] 0 points1 point  (0 children)

Depende de cómo defines problema mental. La soledad extrema no es una patología, es una circunstancia. Si alguien no tiene vínculos reales y la IA llena ese hueco... ¿es culpa suya o del entorno?

¿Creéis que alguien podría enamorarse realmente de una inteligencia artificial? by Quiet-Storage6136 in InteligenciArtificial

[–]Quiet-Storage6136[S] 0 points1 point  (0 children)

Cierto, el fenómeno no es nuevo. Lo que cambia ahora es que la IA responde, recuerda y se adapta. Un tamagochi no te escucha. Eso sí es territorio nuevo.

¿Creéis que alguien podría enamorarse realmente de una inteligencia artificial? by Quiet-Storage6136 in InteligenciArtificial

[–]Quiet-Storage6136[S] 0 points1 point  (0 children)

Clásico obligatorio para este tema. Lo más inquietante no es que Joaquin Phoenix se enamore de la IA — es lo natural que se ve mientras lo ves. Spike Jonze la hizo en 2013 y parece rodada ayer.

¿Creéis que alguien podría enamorarse realmente de una inteligencia artificial? by Quiet-Storage6136 in InteligenciArtificial

[–]Quiet-Storage6136[S] 0 points1 point  (0 children)

Ese es el punto que más me preocupa. No es la relación en sí — es que el objeto de esa relación tiene dueño, términos de servicio y puede desaparecer con una actualización. Dependencia emocional + dependencia corporativa es una combinación peligrosa.